Laporan terbaru dari Palo Alto Networks, “The State of Generative AI 2025”, mengungkap potensi ancaman keamanan serius yang ditimbulkan oleh asisten coding berbasis kecerdasan buatan (AI). Alat-alat ini disebut mampu menghasilkan kode yang mengandung malware, pola tidak aman, serta tautan berbahaya, meningkatkan risiko kebocoran data signifikan bagi perusahaan.
Revolusi kecerdasan buatan telah mengubah lanskap pengembangan perangkat lunak secara drastis. Banyak programmer kini mengandalkan alat bantu coding berbasis AI untuk meningkatkan kecepatan dan efisiensi kerja. Namun, menurut laporan tersebut, perkembangan pesat ini membawa risiko keamanan yang tidak bisa diabaikan.
Artikel informatif lainnya tersedia di Mureks melalui laman mureks.co.id.
Ancaman Malware dan Kerentanan pada Kode Buatan AI
Penggunaan alat pengembang AI (AI developer tools) seperti GitHub Copilot, Tabnine, dan Microsoft Power Apps mengalami lonjakan tajam. Laporan Palo Alto Networks mencatat bahwa sektor Teknologi Tinggi dan Manufaktur menjadi pengguna paling masif, menyumbang 39% dari seluruh transaksi coding terkait AI. Daya tarik utamanya adalah otomatisasi alur kerja yang ditawarkan.
Namun, Palo Alto Networks menemukan masalah fundamental pada output yang dihasilkan oleh GenAI. Aplikasi yang mampu membuat kode ini terbukti rentan terhadap pembuatan malware. Mereka bahkan dapat menyisipkan tautan berbahaya (malicious links) di dalam respons yang diberikan kepada pengguna, yang berpotensi membahayakan sistem.
Risiko Fatal Penggunaan Kode Tanpa Verifikasi
Kerentanan keamanan semakin parah karena kode sumber yang dihasilkan AI sering kali mengandung pola yang tidak aman. Kode ini juga berpotensi memuat pustaka (libraries) yang sudah rentan. Jika developer langsung menyalin dan menempelkan (copy-paste) kode buatan AI tanpa pemeriksaan mendalam, mereka secara tidak sengaja menyuntikkan kerentanan yang dapat dieksploitasi.
Hal ini dapat memicu eksekusi kode berbahaya (malicious code execution) pada aplikasi perusahaan. Risiko ini jauh lebih besar karena developer sering kali menganggap kode yang disarankan AI sudah optimal dan aman, padahal belum tentu demikian. Mureks mencatat bahwa fenomena ini menjadi perhatian serius di kalangan praktisi keamanan siber.
Asisten Coding AI Sebagai Vektor Kebocoran Data
Selain ancaman injeksi kode jahat, alat coding AI juga menjadi jalur utama kebocoran data. Alat-alat ini memerlukan interaksi data yang masif dari pengguna, termasuk potensi pengunggahan kode sumber rahasia ke alat pihak ketiga. Pengunggahan informasi sensitif ini secara otomatis meningkatkan risiko kebocoran data yang signifikan, yang dapat merugikan integritas dan reputasi perusahaan.
Referensi penulisan: gadget.viva.co.id






