`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Олександр Савушкін

Треба бути готовим до того, що ChatGPT вже на службі кіберзлочинців...

+44
голоса
Ведеться багато дискусій і досліджень щодо того, як кіберзлочинці використовують платформу OpenAI, зокрема ChatGPT, для створення шкідливого контенту, наприклад фішингових електронних листів і зловмисного програмного забезпечення.
 
Наразі у Check Point Research (CPR) детально розібрали, як ChatGPT успішно здійснив повний потік зараження. Від створення переконливого фішингового електронного листа до запуску зворотної оболонки, яка може приймати команди англійською мовою.
 
Дослідники CPR нещодавно виявили випадок, коли кіберзлочинці використовували ChatGPT для «поліпшення» коду основного зловмисного програмного забезпечення Infostealer 2019 року. Попри те, що код не є складним для створення, ChatGPT покращив код цього зловреда.
 
На цей час є два способи доступу та роботи з відкритими моделями AІ. Перший - це веб-інтерфейс користувача для використання ChatGPT, DALLE-2, і другий - API, який використовується для створення програм, процесів тощо. Можна також використовувати власний інтерфейс користувача з моделями OpenAI і даними, що працюють у фоновому режимі.
 
У рамках своєї політики щодо вмісту з боку OpenAI створено бар’єри та обмеження, щоб зупинити генерацію шкідливого контенту на платформі. В інтерфейсі користувача ChatGPT встановлено кілька обмежень, щоб запобігти зловживанню моделями. Наприклад, якщо ви попросите ChatGPT написати фішинговий електронний лист, видаючи себе за банк, або створити зловмисне програмне забезпечення, він цього не зробить.
 
Однак кіберзлочинці намагаються обійти обмеження ChatGPT, а на підпільних форумах ведеться активна розмова про те, як використовувати OpenAI API для обходу бар’єрів. Це робиться здебільшого шляхом створення ботів у Telegram, які використовують API.
 
Поточна версія API OpenAI використовується зовнішніми програмами (наприклад, інтеграція моделі GPT-3 OpenAI до каналів Telegram) і має дуже мало заходів проти зловживань, якщо взагалі їх має. У результаті це дозволяє створювати зловмисний вміст, наприклад фішингові електронні листи та зловмисний код, без обмежень або бар’єрів, які ChatGPT встановив для свого інтерфейсу користувача.
 
На підпільному форумі CPR знайшла кіберзлочинця, який рекламував нещодавно створений сервіс: бот Telegram, який використовує API OpenAI без будь-яких обмежень.
 
Інший кіберзлочинець створив базовий сценарій, який використовує OpenAI API для обходу обмежень проти зловживань.
 
Підсумовуючи, можна сказати, що кіберзлочинці продовжують досліджувати, як використовувати ChatGPT для своїх потреб у розробці шкідливих програм і створенні фішингових електронних листів. З удосконаленням елементів керування, які реалізує ChatGPT, шахраї знаходять нові способи використання моделей OpenAI – цього разу зловживаючи їх API.

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

+44
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT