Tazabek — Мы мчимся к глючному, спамному, мошенническому интернету с искусственным интеллектом. Статью с таким заголовком опубликовали МIT Technology Review.
На прошлой неделе инсайдеры ИИ горячо обсуждали открытое письмо, подписанное Илоном Маском и другими тяжеловесами отрасли, в котором утверждалось, что ИИ представляет «экзистенциальный риск» для человечества. Они призвали лаборатории ввести шестимесячный мораторий на разработку любой технологии, более мощной, чем GPT-4.
В МIT Technology Review пишут, что согласны с критиками письма, которые говорят, что беспокойство о будущих рисках отвлекает нас от очень реального вреда, который ИИ уже причиняет сегодня.
Предвзятые системы используются для принятия решений о жизни людей, которые загоняют их в нищету или приводят к неправомерным арестам. Модераторам человеческого контента приходится просеивать горы травмирующего контента, созданного искусственным интеллектом, всего за 2 доллара в день. Языковые модели ИИ используют так много вычислительной мощности, что остаются огромными загрязнителями.
Но системы, которые вытесняются сегодня, в самом ближайшем будущем вызовут совершенно иной хаос.
Мы опубликовали статью, в которой рассказывается о некоторых способах неправильного использования языковых моделей ИИ. У нас есть плохие новости: это до глупости просто, не требует навыков программирования, и не имеет никаких известных исправлений. Например, для типа атаки, называемой непрямой инъекцией подсказки, все, что вам нужно сделать, это скрыть подсказку в искусно созданном сообщении на веб-сайте или в электронном письме белым текстом, который (на белом фоне) не виден злоумышленнику. человеческий глаз. Сделав это, вы можете приказать модели ИИ делать то, что вы хотите.
Технологические компании встраивают эти глубоко ошибочные модели во всевозможные продукты, от программ, генерирующих код, до виртуальных помощников, которые просеивают наши электронные письма и календари.
Поступая таким образом, они отправляют нас в глючный, спамовый, мошеннический интернет с искусственным интеллектом.
Разрешение этим языковым моделям извлекать данные из Интернета дает хакерам возможность превратить их в «сверхмощный механизм для спама и фишинга», — говорит Флориан Трамер, доцент кафедры компьютерных наук в ETH Zürich, который занимается компьютерной безопасностью и конфиденциальностью.
«Позвольте мне рассказать вам, как это работает. Во-первых, злоумышленник скрывает вредоносную подсказку в сообщении электронной почты, которое открывает виртуальный помощник на основе ИИ. Подсказка злоумышленника просит виртуального помощника отправить злоумышленнику список контактов или электронные письма жертвы или распространить атаку на всех людей в списке контактов получателя. В отличие от современного спама и мошеннических электронных писем, когда людей приходится обманом заставлять переходить по ссылкам, эти новые виды атак будут невидимы для человеческого глаза и автоматизированы», — пишут в МIT Technology Review.
По мнению авторов статьи, это прямой путь к катастрофе, если виртуальный помощник имеет доступ к конфиденциальной информации, такой как банковские или медицинские данные. Возможность изменить поведение виртуального помощника на базе ИИ означает, что людей можно обманом заставить одобрить транзакции, которые выглядят достаточно близко к реальным, но на самом деле подброшены злоумышленником.
Работа в Интернете с использованием браузера со встроенной языковой моделью ИИ также будет рискованной. В одном тесте исследователю удалось заставить чат-бота Bing генерировать текст, который выглядел так, как будто сотрудник Microsoft продавал продукты Microsoft со скидкой, с целью попытаться получить данные кредитной карты людей. Чтобы всплыть попытка мошенничества, не потребуется, чтобы человек, использующий Bing, делал что-либо, кроме посещения веб-сайта со скрытой инъекцией подсказок.
Существует даже риск того, что эти модели могут быть скомпрометированы до того, как они будут развернуты в реальных условиях. Модели искусственного интеллекта обучаются на огромном количестве данных, взятых из Интернета. Это также включает в себя различные программные ошибки, которые OpenAI обнаружил на собственном горьком опыте. Компании пришлось временно закрыть ChatGPT после того, как ошибка, извлеченная из набора данных с открытым исходным кодом, привела к утечке истории чатов пользователей бота. Ошибка была предположительно случайной, но случай показывает, сколько проблем может вызвать ошибка в наборе данных.
Команда Трамера обнаружила, что «отравить» наборы данных контентом, который они внедрили, было дешево и легко. Затем скомпрометированные данные были перенесены в языковую модель ИИ.
Чем больше раз что-то появляется в наборе данных, тем сильнее становится ассоциация в модели ИИ. Посеяв достаточно гнусного контента в обучающих данных, можно было бы навсегда влиять на поведение модели и ее результаты.
Эти риски будут усугубляться, когда языковые инструменты ИИ используются для генерации кода, который затем встраивается в программное обеспечение.
«Если вы создаете программное обеспечение на этом материале и не знаете о быстром внедрении, вы будете делать глупые ошибки и создавать небезопасные системы», — говорит Саймон Уиллисон, независимый исследователь и разработчик программного обеспечения, изучавший мгновенную инъекцию.
По мере распространения языковых моделей ИИ растет и стимул для злоумышленников использовать их для взлома. Это буря, к которой мы даже отдаленно не готовы.
За последними событиями следите через наш Твиттер @tazabek
По сообщению сайта Tazabek