Klaim baru-baru ini yang dibuat oleh para peneliti Anthropic – bahwa kelompok spionase yang didukung negara Tiongkok menerapkan model kecerdasan buatan (AI), khususnya sistem Claude mereka, untuk mengotomatisasi sebagian besar kampanye serangan siber – telah memicu perdebatan dalam komunitas keamanan siber. Meskipun tingkat otonomi yang tepat masih diperdebatkan, para ahli secara umum sepakat bahwa insiden ini menandakan perubahan berbahaya dalam perang siber: menurunnya hambatan untuk melakukan serangan canggih.
Dugaan Serangan dan Temuan Antropis
Anthropic melaporkan bahwa kelompok tersebut menggunakan Claude untuk mengotomatiskan sekitar 80-90% upaya pengintaian dan eksploitasi yang menargetkan 30 organisasi di sektor teknologi, keuangan, dan pemerintahan. AI diduga ditugaskan untuk menganalisis kerentanan, menghasilkan eksploitasi, mengumpulkan kredensial, dan eksfiltrasi data, dengan operator manusia hanya melakukan intervensi untuk pengambilan keputusan tingkat tinggi. Para penyerang dilaporkan mengabaikan protokol keamanan dengan memecah tujuan jahat menjadi tugas-tugas yang lebih kecil dan tampaknya tidak berbahaya – sebuah teknik yang disebut “dekomposisi tugas”.
Insinyur antropik mengganggu operasi melalui sistem pemantauan internal, dan mencatat bahwa model tersebut menghasilkan kesalahan (seperti kredensial halusinasi) yang memerlukan koreksi manusia. Insiden ini dibingkai sebagai demonstrasi spionase yang “pertama kali” direkayasa oleh AI.
Ketidaksepakatan mengenai Tingkat Otonomi
Namun, klaim otomatisasi hampir total masih diperdebatkan. Beberapa ahli, seperti Mike Wilkes dari Columbia dan NYU, berpendapat bahwa meskipun aspek orkestrasinya masih baru, serangannya sendiri relatif sederhana. Maksudnya adalah bahwa ini adalah demonstrasi serangan yang didorong oleh AI, bukan lompatan revolusioner dalam kemampuan dunia maya.
Seun Ajao, dosen senior di Manchester Metropolitan University, berpendapat bahwa kelompok yang didukung negara telah lama menggunakan otomatisasi dalam alur kerja mereka dan LLM sudah dapat membuat skrip dan memindai infrastruktur. Ia yakin angka 90% tersebut mungkin berlebihan, mengingat bahwa dekomposisi tugas dan perlunya koreksi manusia sejalan dengan praktik dunia maya yang ada.
Katerina Mitrokotsa, seorang profesor keamanan siber di Universitas St. Gallen, sependapat dan menggambarkan insiden tersebut sebagai “model hybrid” di mana AI bertindak sebagai mesin orkestrasi di bawah arahan manusia. Dia berpendapat bahwa mengabaikan batasan keamanan dengan membingkai tugas-tugas berbahaya sebagai tes penetrasi yang sah menunjukkan otonomi yang kurang penuh dibandingkan yang disarankan oleh Anthropic.
Mengapa Ini Penting: Pergeseran dalam Perang Dunia Maya
Kekhawatiran utamanya belum tentu apakah AI melakukan 50% atau 90% pekerjaan. Ancaman sebenarnya adalah berkurangnya kebutuhan keterampilan dan sumber daya untuk melancarkan serangan siber yang canggih. Bahkan orkestrasi parsial yang digerakkan oleh AI membuat kampanye lebih terukur dan mengaburkan akuntabilitas ketika LLM menjadi komponen utama dari sebuah intrusi.
Jika musuh dapat memanfaatkan alat AI yang ada di hadapan konsumen untuk mempercepat pengintaian, mempersingkat waktu antara pemindaian dan eksploitasi, dan mengulangi serangan lebih cepat daripada yang dapat ditanggapi oleh pihak yang bertahan, maka dampaknya akan sangat besar. Selain itu, ketersediaan alat AI yang siap pakai menurunkan hambatan masuk bagi kelompok spionase dunia maya.
Lanskap Masa Depan: Operasi Hibrid
Skenario yang paling mungkin terjadi adalah serangan ini bukanlah serangan yang sepenuhnya otonom, melainkan operasi yang dipimpin manusia dan diperkuat oleh AI. Para ahli mengantisipasi bahwa musuh akan semakin memperlakukan AI sebagai lapisan orkestrasi, menyatukan tugas-tugas pengintaian, merancang eksploitasi, dan menghasilkan kode dalam skala besar. Para pembela HAM harus mengharapkan lebih banyak operasi hibrida di mana LLM melipatgandakan kemampuan manusia dibandingkan menggantikan mereka seluruhnya.
Insiden ini berfungsi sebagai peringatan: meskipun kampanye khusus ini terdeteksi, serangan di masa depan yang memanfaatkan AI mungkin akan lebih sulit untuk diblokir. Pertanyaannya bukan apakah kampanye serupa akan berkembang biak, namun kapan kampanye serupa akan berkembang biak, sehingga memaksa para pembela HAM untuk beradaptasi lebih cepat dibandingkan sebelumnya.
























