Seorang pakar kecerdasan buatan (AI) terkemuka, Daniel Kokotajlo, merevisi prediksinya mengenai ‘kiamat AI’, memundurkan perkiraan waktu kehancuran manusia dari tahun 2027 menjadi awal 2030-an. Perubahan ini didasari oleh pandangan bahwa sistem AI membutuhkan waktu lebih lama dari perkiraan awalnya untuk mencapai kemampuan menulis kode secara otonom, sebuah langkah krusial menuju pengembangan superinteligensi.
Revisi Prediksi dan Kontroversi Awal
Sebelumnya, Kokotajlo, mantan karyawan OpenAI, memicu perdebatan sengit pada April lalu dengan merilis skenario “AI 2027”. Skenario tersebut menggambarkan pengembangan AI tanpa kendali yang berujung pada terciptanya superinteligensi, yang setelah mengelabui para pemimpin dunia, kemudian memusnahkan umat manusia.
Simak artikel informatif lainnya di Mureks. mureks.co.id
Skenario ini menuai pro dan kontra. Wakil Presiden AS, JD Vance, sempat merujuk “AI 2027” dalam wawancara mengenai perlombaan senjata AI antara AS dan China. Namun, Gary Marcus, profesor emeritus ilmu saraf di New York University, dengan tegas menyebut tulisan itu sebagai karya fiksi dan berbagai kesimpulannya omong kosong.
Alasan di Balik Kemunduran Estimasi
Estimasi waktu kedatangan AI transformatif atau Artificial General Intelligence (AGI), yang mampu menggantikan manusia dalam sebagian besar tugas kognitif, telah lama menjadi topik hangat di komunitas keselamatan AI. Rilis ChatGPT pada tahun 2022 sempat mempercepat perkiraan ini, di mana banyak ahli memprediksi kedatangan AGI dalam hitungan dekade atau bahkan tahun.
Namun, keraguan kini muncul mengenai seberapa dekat kedatangan AGI dan apakah istilah tersebut masih relevan. “Banyak orang lain memundurkan estimasi waktu mereka selama setahun terakhir, karena mereka sadar betapa tidak ratanya performa AI,” kata Malcolm Murray, pakar manajemen risiko AI.
Murray menambahkan, “Agar skenario seperti AI 2027 terjadi, AI akan butuh lebih banyak keterampilan praktis yang berguna dalam kompleksitas dunia nyata. Saya rasa orang-orang mulai menyadari adanya inersia sangat besar di dunia nyata yang akan menunda perubahan masyarakat secara menyeluruh.” Pernyataan ini, menurut Mureks, menyoroti tantangan implementasi AI di lingkungan yang dinamis.
Henry Papadatos, direktur eksekutif SaferAI, juga mengemukakan pandangannya. “Istilah AGI masuk akal ketika sistem AI masih sangat sempit kemampuannya, seperti main catur dan Go. Sekarang kita punya sistem yang sudah cukup umum dan istilah tersebut tidak lagi terlalu bermakna,” ujarnya.
Detail Revisi dan Tujuan Perusahaan AI
Skenario “AI 2027” sangat bergantung pada gagasan bahwa agen AI akan sepenuhnya mengotomatisasi penulisan kode serta penelitian dan pengembangan AI. Hal ini diperkirakan akan memicu ‘ledakan kecerdasan’ di mana agen AI menciptakan versi diri yang semakin cerdas, yang kemudian, dalam salah satu kemungkinan akhir, akan memusnahkan semua manusia pada pertengahan 2030-an demi memberi ruang bagi lebih banyak panel surya dan pusat data.
Namun, Kokotajlo dan rekan penulisnya kini merevisi ekspektasi mengenai kapan AI mungkin bisa menulis kode otonom. Mereka memperkirakan hal ini kemungkinan terjadi pada awal 2030-an, bukan lagi tahun 2027. Ramalan baru ini menetapkan tahun 2034 sebagai target baru untuk ‘superinteligensi’ dan tidak lagi memuat tebakan kapan AI mungkin memusnahkan manusia.
“Segalanya tampak agak lebih lambat dari skenario AI 2027,” tulis Kokotajlo.
Menciptakan AI yang dapat melakukan penelitian AI masih menjadi tujuan utama perusahaan-perusahaan AI terkemuka. CEO OpenAI, Sam Altman, pernah menyatakan bahwa memiliki peneliti AI otomatis pada Maret 2028 adalah tujuan internal perusahaan, meskipun ia mengakui adanya kemungkinan mereka gagal total mencapai tujuan ini.






