Поддержать команду Зеркала
Беларусы на войне
  1. Беременную минчанку осудили за работу вебкам-моделью. Она осталась должна 378 тысяч долларов
  2. Если вы хотите обзавестись недвижимостью и совершить валютные операции в банках, то в июне вас ждут изменения. Подборка новшеств
  3. Впервые за четыре года Белстат опубликовал данные о рождаемости и смертности. Мы собрали полную картину (вряд ли она вас обрадует)
  4. Мы идентифицировали пять охранников, которые чаще всего сопровождают Лукашенко в последнее время. Вот что о них узнало «Зеркало»
  5. В ЕС согласовали отмену штампов на границах Шенгена
  6. Силовики нагрянули в крупную сеть магазинов секонд-хенд
  7. Кремль тратит сотни тысяч долларов на «мягкую силу» в Беларуси. Вот что удалось узнать беларусским расследователям
  8. БРЦ: В Минске пятый год живет финский бизнесмен, который еще в 2024-м числился в списке самых разыскиваемых преступников Европола
  9. Есть пенсионная ловушка, от которой не застрахован практически ни один работник. Но каждый может проверить, не угодил ли случайно в нее
  10. Россия продолжает ставить под сомнение легитимность украинской власти, несмотря на заявления о готовности к переговорам — ISW
  11. «Россия и Украина немедленно начнут переговоры о прекращении огня». Трамп рассказал о двухчасовом разговоре с Путиным
  12. Грузия запретила гражданам Беларуси реэкспорт автомобилей и спецтехники
  13. Лукашенко нашел в стране «золото», которое «под ногами лежит», а им очень слабо занимаются. Нет, речь не о нефти
  14. Все сайты оставляют незаметные «следы» на ваших устройствах. Объясняем, в чем их угроза и как себя обезопасить


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.