Новый закон США заставит ИИ-гигантов рассказать, на чьих данных модели были обучены
Он уже предложенСогласно предложенному законопроекту, Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST) будут сотрудничать в разработке правил, обеспечивающих четкое информирование о происхождении обучающих данных. Компании, создающие базовые модели, должны сообщать об источниках данных, процессах удержания в процессе вывода, ограничениях модели, согласовании с NIST и использовании вычислительной мощности.
Законопроект также требует от разработчиков ИИ «красной команды» для своих моделей, чтобы предотвратить распространение неточной или вредной информации в таких важных областях, как здравоохранение, кибербезопасность, выборы и многое другое. Ссылаясь на резкое увеличение числа исков о нарушении авторских прав против компаний, занимающихся разработкой ИИ, законопроект направлен на «пресечение случаев предоставления общественности недостоверной информации».