Чат-боты неспособны точно составлять краткий пересказ новости, это снова подтвердил эксперимент журналистов «Би-би-си» (запрещена в РФ), написал
                                                                                    
                                        
                                    
Чат-боты неспособны точно составлять краткий пересказ новости, это снова подтвердил эксперимент журналистов «Би-би-си» (запрещена в РФ), написал
                                    san.com . Во время эксперимента сервисы ChatGPT, Copilot, Gemini и Perplexity AI попросили «пересказать» опубликованные новости. Более 51% результатов содержали «значительные ошибки», включая фактологические, и подмену цитат. Аналогичные результаты продемонстрировал ранее другой эксперимент – ChatGPT указал неправильно имя и возраст жертвы, напутал с местом, где произошло событие, фальсифицировал цитату мэра Буэнос-Айреса, указал неверно имя мэра и пр. Напомним , Apple из-за подобных проблем отказалась от ИИ-пересказчика новостей, части нового сервиса Apple Intelligence, в бета-версии ОС для смартфонов, планшетов и компьютеров.
                                    
                                


