JAKARTA – OpenAI, perusahaan pengembang kecerdasan buatan terkemuka, membuka posisi senior baru sebagai Kepala Kesiapan (Head of Preparedness) dengan tawaran kompensasi fantastis mencapai USD 555.000 atau sekitar Rp8,5 miliar per tahun, ditambah ekuitas. Posisi strategis ini akan berfokus pada mitigasi risiko yang terkait dengan sistem kecerdasan buatan (AI) tingkat lanjut yang semakin kompleks.
CEO OpenAI, Sam Altman, mengonfirmasi langsung lowongan ini melalui unggahan di media sosial. Ia menyebut peran tersebut sebagai pekerjaan yang sangat menuntut dan berpotensi menegangkan, mengingat tanggung jawab besar yang diemban.
Klik mureks.co.id untuk tahu artikel menarik lainnya!
Berdasarkan deskripsi pekerjaan, Kepala Kesiapan akan bertanggung jawab mengidentifikasi serta mengurangi dampak negatif potensial dari kemampuan AI. Ini mencakup risiko terhadap kesehatan mental, keamanan siber, dan potensi penyalahgunaan biologis. Peran ini juga dituntut untuk mengembangkan strategi dalam menghadapi skenario di mana penyalahgunaan alat AI berkembang lebih cepat dibandingkan kemampuan pertahanan untuk menanganinya.
Dorongan untuk merekrut posisi ini muncul seiring kemampuan sistem AI yang semakin canggih dan sulit diprediksi. Altman menyatakan, “model-model terbaru cukup mampu menciptakan tantangan nyata, terutama dalam skenario penyalahgunaan di mana penyerang dapat memanfaatkan sistem AI sebelum ada langkah mitigasi yang efektif.”
Posisi Kepala Kesiapan sebenarnya bukan hal yang benar-benar baru di OpenAI, namun fungsinya mengalami perubahan signifikan. Sebelumnya, Aleksander Madry menjabat sebagai Kepala Kesiapan, namun tahun lalu ia dipindahkan untuk fokus pada penalaran AI, menjadikan aspek keselamatan sebagai tanggung jawab sekunder. Dengan lowongan baru ini, fungsi kesiapan kembali menjadi eksekutif yang berdiri sendiri dan dianggap strategis oleh perusahaan.
Waktu pembukaan posisi ini juga menarik perhatian, karena bertepatan dengan meningkatnya sorotan publik terhadap risiko reputasi dan operasional yang ditimbulkan oleh teknologi AI. Banyak perusahaan kini menekankan pentingnya pengelolaan risiko AI dalam pengajuan regulasi. OpenAI sendiri telah mengakui bahwa beberapa model AI yang akan datang dapat menimbulkan ancaman keamanan siber yang lebih kuat.
Sebagai respons, perusahaan mengatakan tengah memperluas sistem pemantauan serta melatih model untuk menolak permintaan yang berpotensi membahayakan keamanan. Selain itu, isu terkait kesehatan mental juga menjadi perhatian utama. OpenAI menghadapi pengawasan publik setelah beberapa tuntutan hukum yang menuding interaksi berbahaya dengan ChatGPT. Investigasi eksternal juga mendokumentasikan kasus di mana pengguna mengalami tekanan emosional berat dalam percakapan panjang dengan sistem tersebut.
Untuk mengatasi hal ini, OpenAI telah memperbarui cara ChatGPT menangani topik-topik sensitif. Perusahaan menambahkan sumber daya krisis dalam respons sistem, serta mendanai penelitian yang mempelajari hubungan antara AI dan kesehatan mental.
Dalam konteks tersebut, peran Kepala Kesiapan dirancang berada di persimpangan kemampuan teknis dan dampak nyata di masyarakat. Posisi ini akan bertugas mengantisipasi berbagai cara sistem baru dapat disalahgunakan dan merumuskan strategi perilisan yang membatasi kerugian tanpa menghentikan pengembangan teknologi.
Langkah ini tidak menunjukkan ambisi OpenAI melambat. Sebaliknya, perekrutan posisi senior ini mencerminkan pengakuan bahwa seiring AI mendekati kemampuan otonom dan penalaran tingkat tinggi, perencanaan keselamatan harus dilakukan lebih awal dalam siklus pengembangan dengan otoritas yang kuat.






