Учёные из Калифорнийского университета провели масштабное исследование, в ходе которого выяснилось, что искусственный интеллект теперь официально умеет вводить людей в заблуждение. В тесте Тьюринга модель GPT-4.5 обманула участников в 73% случаев, заставив их поверить, что она — человек.
Эксперимент проходил в Сан-Диего с участием четырёх ИИ-систем (LLaMa-3.1−405B, GPT-4o, GPT-4.5 и ELIZA) и 284 человек, которым после пятиминутного общения предстояло определить, кто из собеседников является ботом.
Результаты превзошли все ожидания: GPT-4.5 в 73% случаев успешно заставлял людей поверить в свою человечность. Модель LLaMa-3.1 смогла обмануть собеседников в 56% случаев, а GPT-4o и ELIZA обманывали 21−23% участников.
По мнению экспертов, основной фактор, способствующий успеху GPT-4.5, — персонализация. Когда ИИ представлялся как молодой интроверт, знакомый с интернет-культурой и сленгом, люди легче верили в его человечность. Без такой настройки результат падал до 36%.
Это открытие вызывает различные сомнения. Эксперты предупреждают о возможных социальных рисках: ИИ может незаметно заменять людей в онлайн-общении — от службы поддержки до социальных сетей. Появляются новые виды чат-ботов, фальшивых друзей и автоматизированных троллей. В то же время открываются перспективы для автоматизации профессий, требующих общения, таких как менеджеры, копирайтеры и операторы колл-центров.
GPT-4.5 стал первым, кто смог стабильно пройти классический тест, в котором нейросеть напрямую соревнуется с человеком. Однако ученые подчеркивают, что это не означает, что ИИ стал «разумным». Тест Тьюринга проверяет не интеллект, а способность имитировать человека. Тем не менее тот факт, что люди стали чаще доверять ботам, чем реальным собеседникам, вызывает беспокойство.
Исследователи считают, что обычные пользователи уже не смогут точно определить, с кем они общаются, и предлагают внедрить цифровые «водяные знаки» для текстов ИИ, а также специальные алгоритмы с психологическими тестами для точного распознавания ботов.
Эксперимент проходил в Сан-Диего с участием четырёх ИИ-систем (LLaMa-3.1−405B, GPT-4o, GPT-4.5 и ELIZA) и 284 человек, которым после пятиминутного общения предстояло определить, кто из собеседников является ботом.
Результаты превзошли все ожидания: GPT-4.5 в 73% случаев успешно заставлял людей поверить в свою человечность. Модель LLaMa-3.1 смогла обмануть собеседников в 56% случаев, а GPT-4o и ELIZA обманывали 21−23% участников.
По мнению экспертов, основной фактор, способствующий успеху GPT-4.5, — персонализация. Когда ИИ представлялся как молодой интроверт, знакомый с интернет-культурой и сленгом, люди легче верили в его человечность. Без такой настройки результат падал до 36%.
Это открытие вызывает различные сомнения. Эксперты предупреждают о возможных социальных рисках: ИИ может незаметно заменять людей в онлайн-общении — от службы поддержки до социальных сетей. Появляются новые виды чат-ботов, фальшивых друзей и автоматизированных троллей. В то же время открываются перспективы для автоматизации профессий, требующих общения, таких как менеджеры, копирайтеры и операторы колл-центров.
GPT-4.5 стал первым, кто смог стабильно пройти классический тест, в котором нейросеть напрямую соревнуется с человеком. Однако ученые подчеркивают, что это не означает, что ИИ стал «разумным». Тест Тьюринга проверяет не интеллект, а способность имитировать человека. Тем не менее тот факт, что люди стали чаще доверять ботам, чем реальным собеседникам, вызывает беспокойство.
Исследователи считают, что обычные пользователи уже не смогут точно определить, с кем они общаются, и предлагают внедрить цифровые «водяные знаки» для текстов ИИ, а также специальные алгоритмы с психологическими тестами для точного распознавания ботов.