В Сети раскрыли опасности вольного общения с ИИ-чатботами: риски и сбор данных
В новую эпохуВ мире, всё более «управляемом» ИИ, обеспокоенность по поводу конфиденциальности возрастает, особенно в ходе общения с чат-ботами. Как подчеркивает недавняя статья Лилы Шрофф для The Atlantic, такие компании, как OpenAI и Anthropic, накапливают огромные объемы журналов чатов, зачастую при нестрогих политиках обработки данных. Эти данные, полные личных подробностей, представляют собой лакомый кусочек для таргетированной рекламы, которая может эксплуатировать «самые интимные секреты» пользователей.
/imgs/2024/10/05/14/6615953/9effd4bfd82145b62c4d9b329ab9234459ea91ea.jpeg)
Люди часто чувствуют себя более комфортно, раскрывая личную информацию ИИ, чем человеческим собеседникам, так как чат-боты не люди, а машины. Эта динамика, пишет издание, может привести к тому, что пользователи будут делиться чувствительными деталями, которые в дальнейшем могут быть использованы в рекламных целях. А если подумать, что журналы чатов можно использовать при раскрытии преступлений, становится еще «тревожнее».
С ростом давления на ИИ-компании с целью монетизации своих продуктов риск злоупотреблений становится «всё более актуальным».
Как показано на недавнем объявлении Snapchat о персонализации рекламы на основе разговоров с его встроенным чат-ботом, слияние ИИ и рекламы неизбежно.