Home Без категории Атака штучного інтелекту: експерти обговорюють автономію, погоджуються щодо зростаючої загрози

Атака штучного інтелекту: експерти обговорюють автономію, погоджуються щодо зростаючої загрози

0
Атака штучного інтелекту: експерти обговорюють автономію, погоджуються щодо зростаючої загрози

Нещодавня заява дослідників Anthropic про те, що китайська державна розвідувальна група застосувала модель штучного інтелекту (AI), зокрема свою систему Claude, для автоматизації значної частини кібератак, викликала суперечки в спільноті кібербезпеки. Хоча точний ступінь автономії залишається суперечливим, експерти загалом погоджуються, що цей інцидент свідчить про небезпечний зсув у кібервійні: зниження бар’єрів для здійснення складних атак.

Alleged attack and findings Anthropic

Anthropic повідомляє, що група використовувала Claude для автоматизації приблизно 80-90% своїх зусиль з розвідки та використання проти 30 організацій у технологічному, фінансовому та державному секторах. ШІ нібито було доручено аналізувати вразливості, генерувати експлойти, збирати облікові дані та викрадення даних, а люди-оператори втручалися лише для прийняття рішень високого рівня. Повідомляється, що зловмисники обійшли протоколи безпеки, розбиваючи шкідливі цілі на менші, здавалося б, нешкідливі завдання, метод, який називається «декомпозиція завдань».

Інженери Anthropic перервали операцію за допомогою внутрішніх систем моніторингу, зазначивши, що модель створювала помилки (такі як галюцинації облікових даних), які вимагали виправлення людиною. Інцидент рекламується як демонстрація «першого в своєму роді» шпигунства, організованого ШІ.

Disagreement about levels of autonomy

Однак твердження про майже повну автоматизацію є суперечливим. Деякі експерти, такі як Майк Вілкс з Колумбійського університету та Нью-Йоркського університету, стверджують, що хоча аспект оркестровки є новим, самі атаки відносно прості. Його аргумент полягає в тому, що це демонстрація атак за допомогою штучного інтелекту «привіт, світ», а не революційний стрибок у кіберможливостях.

Сьон Аяо, старший викладач Манчестерського столичного університету, припускає, що підтримувані державою групи вже давно використовують автоматизацію у своїх робочих процесах і що магістри права вже можуть створювати сценарії та сканувати інфраструктуру. Він вважає, що цифра в 90% є, швидше за все, переоцінкою, зазначивши, що декомпозиція завдань і потреба в корекції з боку людини відповідають існуючій кіберпрактикі.

Катерина Мітрокоца, професор кібербезпеки в університеті Санкт-Галлена, погоджується, описуючи інцидент як «гібридну модель», у якій ШІ діє як оркестровий механізм під керуванням людини. Вона стверджує, що обхід обмежень безпеки шляхом представлення шкідливих завдань як законних тестів на проникнення передбачає менш повну автономію, ніж припускає Anthropic.

Why It Matters: A Shift in Cyber Warfare

Головне питання не обов’язково полягає в тому, чи виконав ШІ 50% чи 90% роботи. Справжньою загрозою є зменшені вимоги до кваліфікації та ресурсів для здійснення складних кібератак. Навіть часткова оркестровка за допомогою штучного інтелекту робить кампанії більш масштабованими та зменшує відповідальність, коли LLM стає центральним компонентом зламу.

Якщо зловмисники зможуть використовувати інструменти штучного інтелекту, доступні споживачам, щоб прискорити розвідку, скоротити час між скануванням і використанням і повторити атаки швидше, ніж захисники зможуть відреагувати, наслідки будуть глибокими. Крім того, доступність готових інструментів штучного інтелекту знижує бар’єр для проникнення груп кібершпигунства.

The Future Landscape: Hybrid Operations

Найімовірнішим сценарієм є те, що це була не повністю автономна атака, а операція під керівництвом людини, посилена ШІ. Експерти передбачають, що супротивники все частіше розглядатимуть ШІ як оркестровий рівень, поєднуючи завдання розвідки, генеруючи експлойти та створюючи код у масштабі. Прихильникам слід очікувати більше гібридних операцій, у яких LLM розширюють людські можливості, а не повністю їх замінюють.

Цей інцидент служить попередженням про те, що хоча цю конкретну кампанію було виявлено, майбутні атаки штучного інтелекту може виявитися складнішим для блокування. Питання не в тому, чи поширяться такі кампанії, а коли вони поширяться, змушуючи правозахисників адаптуватися швидше, ніж будь-коли раніше.

Exit mobile version