Очередной пример яркой
Очередной пример яркой
ИИ-галлюцинации – инструмент автоперевода от экстремистской Meta ошибочно интерпретировал выражение соболезнований от высокопоставленного чиновника индийского штата Карнатака и выдал сообщение о смерти самого соболезнующего. Ранее, напомним , в ответ на запрос об индийском премьере ИИ-инструмент Google Gemini выдал результат, где говорилось, что «некоторые эксперты рассматривают ряд мер, предпринятых премьер-министром Индии, как фашистские». Это не ошибка робота, которая может быть устранена совершенствованием его конструкции. Результат работы ИИ носит вероятностный характер, ошибки неизбежны и неустранимы.