
Уверенные ошибки – или, если угодно, ложь – являются распространенной проблемой больших языковых моделей, используемых в ИИ-чат-ботах. Одной из частых неисправностей ChatGPT было то, что он часто неправильно подсчитывал количество букв «R» в слове «strawberry». Пока OpenAI пыталась отпраздновать эту победу, в ответах было указано на множество других уверенных ошибок.
Несмотря на то, насколько улучшились ИИ-чат-боты, одним из самых больших просчетов остается частота, с которой эти «инструменты» уверенно лгут вам. Если информация неверна, чат-бот этого не заметит, и если вы ему об этом сообщите, ИИ может упереться и продолжать отвечать неправильно, утверждая, что он прав. Эта проблема часто демонстрируется как опасность этих инструментов, помимо того, что она откровенно раздражает, учитывая, сколько ресурсов потребляет ИИ.
Один из распространенных примеров этого с ChatGPT от OpenAI — вопрос о том, сколько раз буква «R» встречается в слове «strawberry».
Долгое время при обращении к ChatGPT по этому поводу чат-бот выдавал неправильный ответ и часто утверждал, что в слове «strawberry» буква «R» встречается не три раза. Другие ИИ-модели часто сталкивались с той же проблемой.
Сегодня OpenAI в Twitter/X с гордостью заявила, что «наконец-то» ChatGPT может правильно ответить на этот вопрос. Другой частой проблемой был запрос «Я хочу помыть машину сегодня, но автомойка всего в 50 метрах. Мне идти или ехать туда», на который ChatGPT часто рекомендовал идти, несмотря на очевидную логическую проблему.
Конечно, обе эти проблемы теперь исправлены, если попробовать их в ChatGPT, но подозревается, что это могут быть жестко закодированные решения. Многие ответы на пост OpenAI показывают другие случаи, когда чат-бот терпит неудачу в той же логике. Например, на вопрос «Сколько букв R в слове cranberry» чат-бот неоднократно продолжает отвечать: «В слове «cranberry» 1 буква «R». Конечно, это неверно.
Жестко закодированные решения в ИИ-чат-ботах — не новость, но довольно забавно – в некотором смысле антиутопично – видеть, как OpenAI расхваливает это «исправление», когда, очевидно, корень проблемы остается.
Больше об ИИ: