Опубликовано 13 декабря 2024, 20:15
1 мин.

ИИ ошибочно «научился» по рентгену колена понимать, пьет ли кто-то пиво

Но это не так
Новое исследование выявило скрытый риск использования ИИ в медицинской визуализации. Учёные проанализировали более 25 000 рентгеновских снимков коленного сустава и обнаружили, что модели ИИ могут находить несвязанные и неправдоподобные признаки, например, пьют ли пациенты пиво или едят жареную фасоль.
ИИ ошибочно «научился» по рентгену колена понимать, пьет ли кто-то пиво

Исследование, опубликованное в журнале Scientific Reports, предупреждает, что ИИ иногда может полагаться на мешающие переменные, такие как различия в рентгеновском оборудовании, что приводит к ложным выводам. Даже когда эти предубеждения были устранены, модели адаптировались, находя новые скрытые закономерности.

Эксперты подчеркивают, что, хотя ИИ имеет большой потенциал в здравоохранении, его следует использовать с осторожностью. Модель может видеть вещи не так, как человек, говорит доктор Питер Шиллинг, старший автор исследования.