Ученые доказали невозможность разработки стабильного алгоритма ИИ
Несмотря на достижения в области ИИ, представленные такими моделями, как ChatGPT, способными интерпретировать медицинские снимки точнее, чем врачи, и обеспечивать более безопасное вождение, чем человек, даже самые сложные алгоритмы имеют уязвимости.
Ученые во главе с профессором Амиром Йегудайоффом утверждают, что ИИ ограничен в возможностях работы с реальными сценариями. Например, в контексте автономных автомобилей, считывающих дорожные знаки, если надписи на знаках добавляют люди, водители-люди обычно не отвлекаются. Однако ИИ из-за расхождений с обученными данными может легко отвлечься.
Профессор Амир Иегудайофф отметил, что в реальной жизни существуют различные шумы, которые люди умеют игнорировать, в то время как машины сбиваются с толку.