Как ИИ может испортить вам жизнь, помимо безработицы
«Войну роботов» и прочую ерунду тоже в расчёт пока не берёмСферы, в которых генерация контента может нанести вред здоровью и жизни людей
Нейросети упрощают и облегчают работу многих профессионалов. Они уже нашли свое применение, к примеру, в медицине, логистике, сельском хозяйстве, науке и многих других областях. Но в отдельных сферах к их использованию нужно подходить с осторожностью.
Использование ИИ в медицине: первые успехи и неудачи
В 2019 году международная группа исследователей разработала и протестировала систему, использующую ИИ для диагностики рака груди. Анализируя маммограммы, алгоритм определял, есть ли у пациента такое заболевание. Система показала высокую точность в постановке диагноза (94,5%), но оказалась несовершенной.
Еще один любопытный эксперимент с привлечением ИИ к диагностике рака показал хорошие предварительные результаты. Ранее для изучения опухоли и установления ее границ с нормальной тканью приходилось довольно долго ждать. ИИ смог провести диагностику за 3 минуты. Врачи надеются, что это в дальнейшем может стать прорывом, и все нужные действия по удалению опухоли можно будет проводить в 1 операцию, а не в 2-3.
Но, несмотря на такие многообещающие результаты, нужно помнить: хотя ИИ ошибается в небольшом количестве случаев, за каждым из них стоит человеческая судьба, здоровье и жизнь.
Из-за неправильной интерпретации или игнорирования клинического контекста нейросетью кто-то может начать ненужное ему агрессивное лечение с серьезными побочными эффектами, а кто-то станет заниматься здоровьем слишком поздно. Каждый диагноз, выставляемый ИИ, должен быть перепроверен реальным врачом.
Дипфейки — от шуток до ударов по репутации и общественных волнений
ИИ активно используют для синтеза человеческого голоса и изображения. Видео, созданные с использованием нейросети, настолько реалистичные, что сходу можно и не понять, что это дипфейки. И овладеть технологией их создания может даже человек без большого багажа специализированных знаний и умений.
Некоторые пользователи используют ИИ для шуток над друзьями или для генерации коммерческого контента. При этом доступность технологии уже породила массу скандальных ситуаций — например, Том Хэнкс появился в рекламе стоматологии, но никто не согласовал с ним ее содержание. Гонорара, конечно же, актер тоже не получил. Взяли на вооружение дипфейки и мошенники. Они подделывают голос и изображение на видео, чтобы представляться другими людьми или же ставить жертву в неловкое положение (и шантажировать ее созданными материалами).
© Вспомните это видео перед тем, как в следующий раз пересылать друзьям в Telegram «сенсационные заявления» какого-нибудь политика
Один из нашумевших случаев — злоумышленник связался с поклонницей Илона Маска и, притворившись знаменитостью, выманил у жертвы около 50 000 долларов. Кореянка сначала настороженно отнеслась к новому знакомому, но он высылал ей фото и даже связался с ней по видео, чтобы «подтвердить» личность.
В России уже известны случаи, когда мошенники создавали аудио и видео с детьми, чтобы поживиться деньгами их родителей. Схема вроде «Мам, я попал в неприятности, просто вышли денег» вышла на новый уровень. Люди на эмоциях не всегда могут быстро проанализировать новость и критически посмотреть на ситуацию.
Дипфейки могут использовать и для нанесения урона репутации политиков, общественных деятелей, публичных лиц, для создания хаоса и манипулирования мнением сотен и тысяч людей. Именно поэтому сейчас активно обсуждаются возможные меры борьбы с дипфейками, в том числе на законодательном уровне.
Опасная литература, сгенерированная ИИ
Семья приобрела книгу «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», не зная, что она была написана с использованием ИИ. Нейросеть сгенерировала не только текст, но и изображения. Из-за недостоверной информации в книге семья оказалась в больнице.
А что будет, если нейросети начнут привлекать к созданию учебных пособий? Что, если тот же врач или фармацевт получат из таких книг неправильные сведения?
Автопилот и цена ошибки программы
ИИ применяется в беспилотном управлении машинами, но эти программы еще очень далеки от совершенства. Например, при тестах в 2018 году еще на этапе испытаний автомобиль с автопилотом сбил человека насмерть. Трагедия произошла из-за некорректных настроек чувствительности к распознаванию опасных объектов.
© Презентация системы автоматического торможения Volvo пошла не по плану
И такие случаи не единичны. Автопилот может неверно оценить дорожную обстановку и неправильно отреагировать на ситуацию. Например, Джошуа Браун активно тестировал машину Tesla и ее функционал, и был полностью уверен в эффективности автопилота. Однако это в итоге привело к ДТП с печальным финалом — программа неверно распознала белую боковину прицепа, и автомобиль столкнулся с ним.
Как минимизировать риски от сгенерированного контента
На мой взгляд, помочь снизить риски от контента, созданного ИИ, можно комплексом мер. Всю информацию, полученную от нейросети, нужно тщательно проверять. Во-первых, уже сейчас для выявления подобного контента есть сервисы. Они не всегда точны, но в целом показывают весьма неплохие результаты. Они работают не только с текстами, но и с видео, распознавая дипфейки.
Во-вторых, стоит подумать о том, чтобы обязать авторов напрямую указывать, что они использовали в своей работе ИИ — например, чтобы об этом была пометка на обложке книги. Так покупатель сможет решить, готов ли он приобретать такую литературу. В-третьих, нужно развивать у детей и молодежи критическое мышление. Почему-то в обсуждениях проблемы недостоверности информации от ИИ этому аспекту уделяют мало внимания. А ведь именно благодаря критическому мышлению человек может отфильтровать недостоверные сведения, перепроверить информацию, используя разные источники.
Полный запрет или частичное ограничение на использование ИИ
Возможно, в будущем нас ждет полный запрет на использование ИИ при генерации контента в тех сферах, в которых ошибки могут стоить людям жизни и здоровья. В частности, это медицина, образование.
Я полагаю, что запреты могут коснуться также юриспруденции и журналистики. Фейковые новости могут посеять панику. А некорректная информация из области юриспруденции может создать путаницу, и люди неверно будут трактовать законы.
Как бороться с некачественным и вредным контентом от ИИ на глобальном и локальном уровнях
Применение ИИ может значительно упростить работу многих специалистов и открыть для них новые возможности. Но это инструмент, и использовать его стоит грамотно и осмотрительно.
Международное сотрудничество может помочь выработать единые правила и стандарты, которые можно было бы использовать в дальнейшем для создания локальных законов в каждой отдельно взятой стране. Ведь у каждого государства свои социальные и правовые особенности.
А пока таких единых правил и законодательных норм нет, каждый из нас должен осознать, что ИИ может выдавать не только полезный, но и весьма сомнительный контент. И учиться фильтровать информацию, перепроверять факты.