Teknologi

Penggunaan GenAI Meningkat, Organisasi Laporkan Lebih dari 200 Pelanggaran Data Tiap Bulan

Penggunaan Kecerdasan Buatan Generatif (GenAI) di lingkungan kerja membawa konsekuensi keamanan data yang serius. Sebuah laporan terbaru dari Netskope mengungkapkan bahwa rata-rata organisasi kini melaporkan lebih dari 200 insiden pelanggaran kebijakan data terkait GenAI setiap bulannya.

Laporan Cloud and Threat Report: 2026 yang dirilis Netskope pada awal pekan ini, Kamis (08/01/2026), menyoroti peningkatan pesat penggunaan GenAI Software-as-a-Service (SaaS) di kalangan bisnis. Jumlah pengguna alat seperti ChatGPT atau Gemini dilaporkan meningkat tiga kali lipat dalam setahun terakhir.

Artikel informatif lainnya dapat dibaca melalui Mureks. mureks.co.id

Tidak hanya itu, interaksi pengguna dengan aplikasi GenAI juga melonjak signifikan. Volume perintah (prompt) yang dikirim ke aplikasi-aplikasi tersebut naik enam kali lipat dalam 12 bulan terakhir, dari sekitar 3.000 setahun lalu menjadi lebih dari 18.000 prompt per bulan saat ini.

Mureks mencatat bahwa organisasi di kuartil teratas (top 25%) mengirimkan lebih dari 70.000 prompt setiap bulan, sementara 1% organisasi teratas bahkan mencapai lebih dari 1,4 juta prompt per bulan.

Ancaman ‘Shadow AI’ dan Kebocoran Data

Namun, peningkatan penggunaan ini tidak selalu diiringi dengan pengawasan yang memadai. Hampir separuh (47%) pengguna GenAI memanfaatkan aplikasi AI pribadi atau yang dikenal sebagai ‘Shadow AI’. Kondisi ini menciptakan celah visibilitas yang besar bagi organisasi, karena mereka tidak memiliki kontrol atau informasi mengenai jenis data yang dibagikan dan bagaimana aplikasi-aplikasi tersebut memproses file sensitif.

Akibatnya, insiden pengiriman data sensitif ke aplikasi AI telah berlipat ganda dalam setahun terakhir. Rata-rata organisasi kini menghadapi 223 insiden per bulan, sebuah angka yang mengkhawatirkan. Netskope juga memperingatkan bahwa aplikasi pribadi merupakan “risiko ancaman orang dalam yang signifikan”. Sebanyak 60% insiden ancaman orang dalam melibatkan penggunaan aplikasi cloud pribadi.

Data yang diatur, kekayaan intelektual, kode sumber, dan kredensial seringkali dikirim ke instansi aplikasi pribadi, melanggar kebijakan organisasi yang telah ditetapkan.

Laporan tersebut menyimpulkan, “Organisasi akan berjuang untuk mempertahankan tata kelola data karena informasi sensitif mengalir bebas ke ekosistem AI yang tidak disetujui, menyebabkan peningkatan paparan data yang tidak disengaja dan risiko kepatuhan.”

Lebih lanjut, Netskope menambahkan, “Penyerang, sebaliknya, akan mengeksploitasi lingkungan yang terfragmentasi ini, memanfaatkan AI untuk melakukan pengintaian yang sangat efisien dan menyusun serangan yang sangat disesuaikan yang menargetkan model dan data pelatihan proprietary.”

Referensi penulisan: www.techradar.com

Mureks