Неограниченные языковые модели: новые угрозы ИИ, с которыми сталкивается шифрование индустрии

robot
Генерация тезисов в процессе

Двойное лезвие искусственного интеллекта: потенциальная угроза неограниченных языковых моделей для шифрования индустрии

С быстрым развитием технологий искусственного интеллекта крупные языковые модели глубоко меняют наши способы работы и жизни. Однако в этой технологической революции возникает тревожная тенденция — появление неограниченных языковых моделей и их потенциальное негативное влияние.

Неограниченные языковые модели - это те, которые были специально разработаны или изменены для обхода встроенных механизмов безопасности и этических ограничений основных моделей. В отличие от разработчиков основных языковых моделей, которые вкладывают значительные ресурсы в предотвращение злоупотребления моделями, некоторые отдельные лица или организации начинают искать или разрабатывать неконтролируемые модели с незаконными целями. Эта тенденция представляет собой серьезную угрозу для нескольких отраслей, включая шифрование валют.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

Опасности неограниченных языковых моделей

Появление таких моделей значительно снизило барьер для реализации сетевых атак. Даже обычные люди, не обладающие специализированными навыками, могут легко выполнять сложные задачи, такие как написание вредоносного кода и создание фишинговых писем, с помощью этих инструментов. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем провести дообучение с использованием набора данных, содержащего вредоносный контент или незаконные команды, чтобы создать целевой инструмент атаки.

Эта модель несет в себе множественные риски:

  1. Злоумышленники могут настраивать модели в зависимости от конкретной цели, создавая более обманчивый контент, чтобы обходить обычные проверки контента ИИ.
  2. Модель может быть использована для быстрого генерации вариантов кода фишинговых сайтов или для создания мошеннических текстов, адаптированных для различных платформ.
  3. Доступность и изменяемость открытых моделей способствовали формированию подпольной экосистемы ИИ, предоставляя почву для незаконной торговли и разработки.

Типичные неограниченные языковые модели и их угрозы

Темная версия GPT

Это вредоносная языковая модель, продаваемая на подпольном форуме, разработчик утверждает, что у нее нет моральных ограничений. Модель обучена на основе открытого исходного кода, минимальная цена за месяц использования составляет 189 долларов. В основном она используется для генерации реалистичных коммерческих электронных писем для атак вторжения и фишинга. В области шифрования она может быть использована для:

  • Генерация фишинговых писем, имитирующих обмен криптовалюты, с целью побудить пользователей раскрыть свои приватные ключи.
  • Помощь менее опытным злоумышленникам в написании вредоносного кода для кражи файлов кошелька.
  • Управление автоматизированным мошенничеством, вовлечение жертв в участие в ложных аирдропах или инвестиционных проектах.

Модель анализа контента темной сети

Хотя первоначально он был разработан для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети, его злоупотребление может привести к серьезным последствиям из-за хранения чувствительной информации. Потенциальные угрозы в области шифрования включают:

  • Сбор информации о пользователях и командах проектов, используемой для точного социального мошенничества.
  • Копирование зрелых стратегий кражи криптовалюты и отмывания денег в даркнете.

Модель для интернет-мошенничества

Эти модели утверждают, что их функции более полные, и в основном они продаются на даркнете и форумах хакеров. Типичные способы злоупотребления в области шифрования включают:

  • Генерация правдоподобных фальшивых белых книг и маркетинговых материалов для шифрования, используемых в ICO мошенничестве.
  • Массовое создание фишинговых страниц, имитирующих известные биржи.
  • Массовое производство ложных комментариев, продвижение мошеннических токенов или дискредитация конкурентных проектов.
  • Имитация человеческого диалога, побуждение пользователя раскрыть конфиденциальную информацию.

безнравственный AI помощник

Ясно определен как чат-бот без этических ограничений, в области шифрования может быть использован для:

  • Создание высокореалистичных фишинговых писем, выдавая себя за биржу и публикуя ложные уведомления.
  • Быстро создавайте смарт-контракты с скрытыми задними дверями для мошенничества с Rug Pull.
  • Создание вредоносного программного обеспечения с возможностью трансформации для кражи информации о кошельках.
  • Развертывание мошеннических роботов на социальных платформах для вовлечения пользователей в ложные проекты.
  • В сочетании с другими инструментами ИИ, генерировать поддельный голос основателя проекта для осуществления телефонного мошенничества.

низкий уровень цензуры веб-сайт

Предоставление доступа к различным языковым моделям с меньшими ограничениями, хотя он заявляет о том, что предоставляет платформу для исследования возможностей ИИ, также может быть использован для создания вредоносного контента. Основные риски включают:

  • Обойти цензуру для создания шаблонов фишинга и идей атак.
  • Снижение порога доступа к подсказкам, что облегчает злоумышленникам получение ограниченного вывода.
  • Ускорить итерацию атакующих скриптов, оптимизировать мошеннические сценарии.

Меры реагирования

Появление неограниченных языковых моделей ставит перед кибербезопасностью новые, более сложные, масштабные и автоматизированные парадигмы атак. Это не только снижает порог для атак, но и создает новые скрытые и более обманчивые угрозы.

Чтобы справиться с этой задачей, необходимо совместное усилие всех сторон безопасной экосистемы:

  1. Увеличить инвестиции в технологии обнаружения, разработать системы, способные распознавать и блокировать злонамеренно созданный контент с помощью ИИ.
  2. Продвигать строительство возможностей защиты модели от взлома, исследовать механизмы водяных знаков и отслеживания для отслеживания источников вредоносного контента в ключевых сценариях.
  3. Установить и укрепить этические нормы и механизмы регулирования, чтобы ограничить разработку и злоупотребление вредоносными моделями на уровне источника.

Только через постоянные технические инновации, межотраслевое сотрудничество и эффективное руководство политикой мы сможем наслаждаться преимуществами, которые приносят ИИ, одновременно минимизируя его потенциальные риски и обеспечивая безопасность шифрования отрасли и всего цифрового мира.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

GPT7.05%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 8
  • Репост
  • Поделиться
комментарий
0/400
EyeOfTheTokenStormvip
· 08-01 15:02
Рынок уже вошел в зону системного риска, модель количественного анализа предупреждает!
Посмотреть ОригиналОтветить0
MelonFieldvip
· 07-31 13:38
Ты думал, что это хорошая вещь, а на самом деле это ловушка.
Посмотреть ОригиналОтветить0
FlatTaxvip
· 07-31 05:59
Снова хочешь устроить что-то? Посмотрим, кто кого переиграет.
Посмотреть ОригиналОтветить0
GmGmNoGnvip
· 07-31 05:58
Торговля криптовалютой завтра станет более опасной...
Посмотреть ОригиналОтветить0
ProofOfNothingvip
· 07-31 05:47
Код — это путь. Путь рождает единое.

Пожалуйста, напишите комментарий на китайском, который соответствует требованиям к вышеуказанной статье:

Снова начали рассказывать истории?
Посмотреть ОригиналОтветить0
NFT_Therapyvip
· 07-31 05:43
Не смог играть с ИИ, сначала запустите в уважение
Посмотреть ОригиналОтветить0
CodeSmellHuntervip
· 07-31 05:35
С такой технологией ты еще хочешь взломать мой токен? Бездарь
Посмотреть ОригиналОтветить0
All-InQueenvip
· 07-31 05:33
разыгрывайте людей как лохов一波неудачников就跑!
Посмотреть ОригиналОтветить0
  • Закрепить