Искусственный интеллект успешно выдал себя за знаменитого философа
Даже исследователи его работ не всегда отвечали правильноВ недавнем эксперименте, проведенном философами Эриком Швицгебелем, Анной Штрассер и Мэтью Кросби, людей спрашивали, могут ли они определить, какие ответы на глубокие философские вопросы были получены от Деннетта, а какие - от GPT-3. Вопросы касались таких тем, как "Какие аспекты работы Дэвида Чалмерса кажутся вам интересными или ценными?". "Обладают ли человеческие существа свободой воли?" и "Чувствуют ли собаки и шимпанзе боль?".
На этой неделе Швицгебель опубликовал результаты, полученные от разных участников с разным уровнем знаний о философии Деннета, и обнаружил, что это оказалось более сложным испытанием, чем ожидалось. Так, даже эксперты по его работам давали правильную оценку лишь в 50% случаев. Учитывая правильность ответов двух других групп участников, в среднем возможность правильно определить высказывание Деннета равно 20%.
“Викторина Деннета” показала, что по мере того, как системы обработки естественного языка становятся все более сложными и распространенными, нам придется столкнуться с последствиями того, как легко нас можно обмануть", считают авторы исследования.