ИИ-генераторы картинок обвинили в обучении на фото с насилием над детьми
И на таких фото обучено множество нейросетейЛетом 2023 года Тиль обнаружил, что генеративные нейросети используются для создания поддельных изображений с порно. Всё бы ничего, но на этих картинках изображались дети. Затем эти картинки распространяются в даркнете.
А обучаются нейросети на основании реальных изображений с сексуальным насилием над детьми. Данные для обучения ИИ собраны в общедоступную базу LAION-5B, которую используют многие разработчики нейросетей. Данные автоматически копируются в базу из Интернета.
На LAION-5B обучалась и популярная нейросеть с открытым исходным кодом Stabel Diffusion. И даже если отключить проблемную базу данных от нейросетей, что разработчики LAION-5B уже сделали, у ИИ-платформ уже сформированы соответствующие «навыки».
Тиль предложил вовсе запретить использовать образ детей для генерации картинок в нейросетях с возможностью создания эротического контента. Или убрать изображения несовершеннолетних из открытых обучающих баз данных для нейросетей.