Эксперт: у ИИ есть сдерживающие факторы, но их можно преодолеть
Но каковы риски© Ferra.ru
Первым важным аспектом является ограничение логического мышления у моделей. Даже самые передовые языковые модели, такие как GPT, пока лишь помогают специалистам, но не заменяют их полностью. Возможность логического и критического мышления пока остается человеческой привилегией.
Сейчас самые продвинутые большие языковые модели представляют из себя помощников для специалистов в своих областях. Как правило, даже самые продвинутые большие языковые модели, обученные под решение прикладных специфических задач, помогают, но не заменяют человека на его месте работы. В текущий момент модели не способны логически мыслить. Они не способны критически относиться к той информации, которую они выдают пользователю GPT-модели.
Проблема неконтролируемой генерации — второй важный аспект. Решение ее требует длительного и дорогостоящего обучения модели. Необходимость минимизации ошибок делает сложным внедрение моделей в бизнес-процессы, особенно в медицинских и юридических областях.
Это распространенная проблема трансформерной архитектуры GPT-подобных моделей. Эта проблема может решаться до обучением модели при определенном подходе, однако дообучать огромную модель «на стероидах» с миллиардами параметров долго и дорого. К сожалению, они пока не могут в полной мере быть внедрены в прикладные бизнес-процессы, потому что там высока цена ошибки. Мы не можем допустить, что в медицинском приложении или юридическом сервисе модель будет давать ложную информацию.
Технологические ограничения включают ограничение по числу символов ввода, проблемы инфраструктуры и высокую стоимость оборудования. Доступность технологий остается неравномерной, создавая этические и правовые риски.
Васильев также отметил нехватку вычислительных ресурсов и монополию в производстве чипов. Это создает неравенство в доступе к технологиям и привилегии на рынке.
Есть довольно ограниченный круг компаний, которые разрабатывают железо для исполнения и обучения моделей. Здесь также существует монополия и когда есть недостаток железа и при этом есть технологические гиганты с огромными бюджетами на это железо, разработка становится дорогой и еще более эксклюзивной. Это создает прецедент неравномерного доступа к технологиям и получение привилегий на рынке со стороны одних компаний над другими. С одной стороны нужно более широкое распространение технологий среди всех участников рынка, с другой требуется правовое регулирование, потому что создается неравномерный баланс технологических сил.
В будущем возможен сценарий, когда модели станут неотъемлемой частью принятия решений. Это может привести к психологическому эффекту, когда люди будут склонны следовать рекомендациям моделей, даже если они расходятся с собственными убеждениями. Это поднимает этический вопрос о последствиях ошибок моделей, которые могут привести к серьезным последствиям в производстве и других сферах.
Люди могут начать принимать решения, опираясь на рекомендации моделей, и скорее всего будут следовать им, даже если сами пришли к другому выводу. Эти модели могут казаться «незаменимыми» помощниками, поскольку люди привыкнут получать верные ответы на множество вопросов. Возможен и психологический эффект, когда люди будут считать, что решения, которые принимают модели, совпали бы с тем, что они бы сделали сами.
Вопрос о возможной остановке развития ИИ также неизбежно возникает. Васильев предупреждает, что регулирование станет необходимым, особенно при приближении к созданию ИИ, превосходящего биологический интеллект. Возможны ограничения, направленные на предотвращение угрозы для человечества.
В какой-то момент развитие ИИ действительно может быть искусственно заторможено, если мы поймем, что риски, которые материализуются в связи с развитием ИИ, неуправляемы и могут нести реальную угрозу самому существованию человечества.
Таким образом, развитие искусственного интеллекта сталкивается с рядом вызовов, требующих внимания и баланса между технологическими возможностями и этическими рисками.