Маск, Возняк и другие исследователи ИИ призвали «немедленно приостановить» обучение нейросетей мощнее GPT-4
Иначе можно доигратьсяЭксперты призвали «немедленно приостановить» обучение нейросетей мощнее GPT-4, по крайне мере на полгода. В противном случае существует серьёзная опасность для человечества. Подписанты считают, что «мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».
В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных по отношению к человеку систем искусственного интеллекта, которые могут проявиться в виде экономических и политических потрясений. В целом речь идёт о необходимости как минимум на полгода приостановить обучение систем, которые превосходят языковую модель GPT-4 и работающего на её основе чат-бота ChatGPT. В этот период предлагается, чтобы независимые эксперты выработали, внедрили и проверили общие протоколы безопасности для таких систем.
Специалисты предупредили, что искусственный интеллект, способный полноценно конкурировать с человеком, может представлять собой по-настоящему серьёзную опасность, какой ещё не было. И это подтверждается ведущими лабораториями искусственного интеллекта.
ИИ может не просто изменить общество, но запустит процессы, глубоко изменяющие историю жизни на Земле. Поэтому такие технологии можно разрабатывать, развивать и управлять ими «с соразмерной тщательностью и ресурсами».
«Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают», — отметил один из экспертов, подписавший письмо, почётный профессор Нью-Йоркского университета Гэри Маркус.
Ниже выдержка из письма.
Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных «цифровых умов», которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.
С полным текстом можно ознакомиться на сайте Хабр.