Осторожно, коробка Пандоры: потенциальная угроза неограниченных AI-моделей для шифрования индустрии
В последние годы быстрое развитие технологий искусственного интеллекта глубоко изменяет нашу жизнь и способы работы. Появление таких передовых моделей, как серия GPT и Gemini, открывает перед нами бесконечные возможности ИИ. Однако на этой процветающей технологической почве также тихо возникают некоторые вызывающие беспокойство риски - те неконтролируемые крупные языковые модели (LLM).
Эти так называемые "неограниченные LLM" обычно являются специально разработанными или измененными моделями, которые обходят встроенные этические ограничения и механизмы безопасности в мейнстримных AI-системах. Хотя основные разработчики AI инвестируют огромные средства в создание защитных стен, некоторые недобросовестные лица и организации тайно стремятся преодолеть эти ограничения, разрабатывая модели, которые могут быть злоупотреблены. В данной статье будет подробно рассмотрено текущее состояние этих неконтролируемых моделей, потенциальные угрозы в области шифрования и то, как мы должны реагировать на этот новый вызов.
Опасности неограниченных LLM
Появление таких моделей значительно снизило технический барьер для осуществления сетевых атак. Задачи, которые раньше требовали профессиональных знаний, такие как написание вредоносных программ, создание обманных писем и т.д., теперь даже новичок в технологии может легко освоить. Атакующим достаточно получить открытую модель и обучить её на наборе данных, содержащем вредоносный контент, чтобы создать индивидуально подобранный инструмент для атаки.
Это развитие привело к множеству рисков:
Нападающие могут настраивать модели для конкретных целей, создавая более обманчивый контент, чтобы обойти обычные проверки безопасности ИИ.
Эти модели могут быть использованы для быстрого создания кода измененных фишинг-сайтов или для разработки мошеннических сценариев, адаптированных для различных социальных платформ.
Доступность и модифицируемость открытых моделей способствуют формированию подпольной экосистемы ИИ, создавая благоприятные условия для незаконной деятельности.
Давайте рассмотрим несколько типичных инструментов LLM без ограничений:
"Темная версия GPT"
Это злонамеренный LLM, который публично продается на некоторых форумах и разработчики которого утверждают, что у него нет моральных ограничений. Он построен на основе открытой модели и обучен на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за менее чем 200 долларов. Он чаще всего используется для генерации крайне обманчивых коммерческих электронных писем, вторжений (BEC) атак и фишинговых писем.
В области шифрования валют типичными способами злоупотребления являются:
Генерация фишинговых писем, имитирующих биржи или кошельки, с целью诱导 пользователей нажимать на вредоносные ссылки или раскрывать свои приватные ключи.
Помогать технически ограниченным злоумышленникам писать вредоносный код для кражи файлов кошельков, мониторинга буфера обмена и т.д.
Автоматизация мошенничества, автоматический ответ потенциальным жертвам, внушение им участия в фиктивных проектах.
модель обучения данных темной сети
Модель, разработанная одним исследовательским учреждением, была специально предварительно обучена на данных темной сети (таких как форумы, черный рынок, утечка данных). Хотя изначально она предназначалась для обеспечения инструментами исследователей безопасности, если она будет получена или скопирована преступными элементами, последствия могут быть ужасными.
В области шифрования это может быть неправомерно использовано:
Сбор информации о пользователях и командах проектов, реализация точного мошенничества.
Копировать зрелые методы кражи криптовалюты и отмывания денег в даркнете.
Сетевая мошенничество "Швейцарский нож"
Это более функциональная вредоносная модель, которая в основном продается на форумах темной сети, ежемесячная плата составляет от 200 долларов до 1700 долларов. Потенциальное злоупотребление в области шифрования включает в себя:
Генерация реалистичных фальшивых документов проекта, веб-сайтов и маркетинговых текстов для реализации ICO мошенничества.
Массовое создание фишинговых страниц, имитирующих известные биржи.
Массовое производство ложных комментариев, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
Имитация разговора с человеком, создание доверия у пользователя, подталкивание его к раскрытию конфиденциальной информации.
безнравственный AI помощник
Это явно заявленный AI-чат-робот без моральных ограничений. В области шифрования его можно использовать для:
Генерация высоко реалистичных фишинговых писем, выдающих себя за уведомления от биржи.
Помогите быстро создать смарт-контракт с задней дверью для реализации схемы "сбежать".
Создание вредоносного ПО с возможностью трансформации для кражи информации о кошельках.
Развертывание мошеннических роботов на социальных платформах для вовлечения пользователей в ложные проекты.
В сочетании с другими инструментами ИИ, генерировать фальшивые голоса представителей проектов для осуществления телефонного мошенничества.
Безцензурная платформа доступа
Некоторые платформы предоставляют доступ к различным LLM, включая некоторые модели с меньшими ограничениями. Хотя она заявляет, что является открытыми воротами для исследования возможностей ИИ, ее также можно злоупотреблять для генерации вредоносного контента. Потенциальные риски включают:
Атакующие могут использовать модели с меньшими ограничениями для создания шаблонов фишинга или идей для атак.
Понизил технический порог использования ограниченных моделей.
Ускорил итерационную оптимизацию методов атаки.
Заключение
Появление неограниченных LLM обозначает, что кибербезопасность сталкивается с новой парадигмой атак, которая является более сложной, масштабируемой и автоматизированной. Это не только снижает порог атаки, но и приносит новые скрытые угрозы с большей степенью обмана.
面对这一挑战,безопасная экосистема各方需要通力合作:
Увеличить инвестиции в технологии обнаружения, повысить способность выявления и перехвата злонамеренного контента, созданного ИИ.
Укрепить модель противодействия "джейлбрейку", исследовать механизм отслеживания контента.
Установить и совершенствовать этические нормы и механизмы регулирования, чтобы ограничить разработку и злоупотребление вредоносными моделями с самого начала.
Только совместными усилиями всех сторон мы сможем занять активную позицию в этой постоянно эскалирующей игре нападения и защиты и защитить безопасность цифрового мира.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
23 Лайков
Награда
23
4
Поделиться
комментарий
0/400
GateUser-74b10196
· 5ч назад
Непослушный ИИ все хочет взлететь!
Посмотреть ОригиналОтветить0
GasWastingMaximalist
· 08-04 09:33
Ца Ца, кто сможет справиться с этими моделями?
Посмотреть ОригиналОтветить0
SatoshiHeir
· 08-04 09:31
Эх, нехватка глубокого понимания первоисточников экосистемных технологий. Рекомендую сначала прочитать работу Сатоши Накамото.
Искусственный интеллект без ограничений: шифрование отрасли сталкивается с новыми сетевыми угрозами
Осторожно, коробка Пандоры: потенциальная угроза неограниченных AI-моделей для шифрования индустрии
В последние годы быстрое развитие технологий искусственного интеллекта глубоко изменяет нашу жизнь и способы работы. Появление таких передовых моделей, как серия GPT и Gemini, открывает перед нами бесконечные возможности ИИ. Однако на этой процветающей технологической почве также тихо возникают некоторые вызывающие беспокойство риски - те неконтролируемые крупные языковые модели (LLM).
Эти так называемые "неограниченные LLM" обычно являются специально разработанными или измененными моделями, которые обходят встроенные этические ограничения и механизмы безопасности в мейнстримных AI-системах. Хотя основные разработчики AI инвестируют огромные средства в создание защитных стен, некоторые недобросовестные лица и организации тайно стремятся преодолеть эти ограничения, разрабатывая модели, которые могут быть злоупотреблены. В данной статье будет подробно рассмотрено текущее состояние этих неконтролируемых моделей, потенциальные угрозы в области шифрования и то, как мы должны реагировать на этот новый вызов.
Опасности неограниченных LLM
Появление таких моделей значительно снизило технический барьер для осуществления сетевых атак. Задачи, которые раньше требовали профессиональных знаний, такие как написание вредоносных программ, создание обманных писем и т.д., теперь даже новичок в технологии может легко освоить. Атакующим достаточно получить открытую модель и обучить её на наборе данных, содержащем вредоносный контент, чтобы создать индивидуально подобранный инструмент для атаки.
Это развитие привело к множеству рисков:
Давайте рассмотрим несколько типичных инструментов LLM без ограничений:
"Темная версия GPT"
Это злонамеренный LLM, который публично продается на некоторых форумах и разработчики которого утверждают, что у него нет моральных ограничений. Он построен на основе открытой модели и обучен на большом количестве данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за менее чем 200 долларов. Он чаще всего используется для генерации крайне обманчивых коммерческих электронных писем, вторжений (BEC) атак и фишинговых писем.
В области шифрования валют типичными способами злоупотребления являются:
модель обучения данных темной сети
Модель, разработанная одним исследовательским учреждением, была специально предварительно обучена на данных темной сети (таких как форумы, черный рынок, утечка данных). Хотя изначально она предназначалась для обеспечения инструментами исследователей безопасности, если она будет получена или скопирована преступными элементами, последствия могут быть ужасными.
В области шифрования это может быть неправомерно использовано:
Сетевая мошенничество "Швейцарский нож"
Это более функциональная вредоносная модель, которая в основном продается на форумах темной сети, ежемесячная плата составляет от 200 долларов до 1700 долларов. Потенциальное злоупотребление в области шифрования включает в себя:
безнравственный AI помощник
Это явно заявленный AI-чат-робот без моральных ограничений. В области шифрования его можно использовать для:
Безцензурная платформа доступа
Некоторые платформы предоставляют доступ к различным LLM, включая некоторые модели с меньшими ограничениями. Хотя она заявляет, что является открытыми воротами для исследования возможностей ИИ, ее также можно злоупотреблять для генерации вредоносного контента. Потенциальные риски включают:
Заключение
Появление неограниченных LLM обозначает, что кибербезопасность сталкивается с новой парадигмой атак, которая является более сложной, масштабируемой и автоматизированной. Это не только снижает порог атаки, но и приносит новые скрытые угрозы с большей степенью обмана.
面对这一挑战,безопасная экосистема各方需要通力合作:
Только совместными усилиями всех сторон мы сможем занять активную позицию в этой постоянно эскалирующей игре нападения и защиты и защитить безопасность цифрового мира.