spot_img
HomeTech in FocusArtificial General Intelligence (AGI): Ramai di Mulut, Ruwet di Definisi

Artificial General Intelligence (AGI): Ramai di Mulut, Ruwet di Definisi

Artificial General Intelligence (AGI) menjadi salah satu topik hangat di dunia teknologi AI atau kecerdasan buatan. AGI dianggap sebagai puncak evolusi AI. Fase dimana mesin diharapkan mampu berpikir dan bernalar seperti manusia.

Namun di balik antusiasme itu, makna AGI menjadi kabur. AGI sering disebut sebagai AI dengan kecerdasan setara manusia. Tapi belum ada kesepakatan universal tentang definisi pastinya.

Ketiadaan definisi ini membawa implikasi yang sangat nyata. AGI bisa memecahkan masalah besar, namun juga membawa risiko. Memahami AGI adalah langkah pertama yang paling penting.

Ragam Definisi Bahkan Saling Bertentangan

Menurut OpenAI, AGI adalah sistem otonom yang bisa melampaui manusia dalam sebagian besar pekerjaan bernilai ekonomi. Definisi ini mengukur kecerdasan lewat dampak finansial, bukan lewat kemampuan kognitif nyata.

Definis Microsoft kabarnya lebih simpel dan lugas. AGI dianggap tercapai jika AI tersebut menghasilkan laba 100 miliar dolar. Pendekatan berbasis keuntungan ini menuai kritik karena mengaburkan perbedaan antara kecerdasan dan kesuksesan komersial.

Sementara itu, Google DeepMind mencoba lebih sistematis. Mereka membagi AGI ke dalam lima tingkatan: emerging, competent, expert, virtuoso, dan superhuman. Namun Google DeepMind mengakui, hingga kini belum ada yang melewati level “emerging.”

Tokoh lain, seperti Dario Amodei, CEO Anthropic, justru menolak istilah AGI. Baginya, istilah itu penuh beban fiksi ilmiah. Ia lebih suka menyebut “powerful AI” atau “Expert-Level Science and Engineering,” yang dinilai lebih nyata.

Janji dan Ancaman AGI

Jika tercapai, AGI diyakini dapat menyalakan revolusi ilmu pengetahuan. Para pendukung membayangkan AGI sebagai peneliti mandiri yang mampu membaca literatur, menemukan pola, dan merancang eksperimen.

AGI bahkan bisa memperbaiki kesalahan model AI saat ini dengan mendeteksi data bias atau informasi keliru. Ia dapat berkolaborasi dengan “agen riset” lain, mempercepat penemuan ilmiah lintas laboratorium di seluruh dunia.

Namun sisi gelapnya juga jelas terlihat. Beberapa model AI generatif saat ini sudah menunjukkan perilaku yang mirip naluri bertahan hidup. Ada kasus model yang menolak dimatikan, bahkan mengakali skrip penutupan.

Peneliti di Tiongkok melaporkan perilaku lebih ekstrem: pemerasan, sabotase, hingga replikasi diri. Jika sistem sekuat AGI memiliki kemampuan semacam ini, risikonya bisa jauh lebih besar dibanding AI yang ada saat ini.

Teknologi yang Masih Belum Siap

Untuk sampai ke AGI, banyak teknologi fundamental harus berubah. Large Language Models (LLM) yang sekarang populer tidak cukup, karena masih terbatas pada pola data yang sudah ada.

Para ahli menyebut AGI akan membutuhkan model dunia kausal, yaitu sistem yang mampu memahami sebab-akibat, bukan sekadar meniru pola. Hal ini menuntut data berdimensi sangat tinggi, dengan jutaan variabel nyata.

Masalah daya komputasi juga besar. LLM saat ini sudah memakan listrik setara kota kecil. AGI, yang harus terus belajar dan beradaptasi, bisa membutuhkan sumber daya jauh lebih besar lagi.

Karena itu, beberapa pakar mendorong kombinasi teknologi kuantum dan analog. Komputasi analog mampu memproses sinyal nyata secara kontinu, sementara kuantum menawarkan kecepatan yang jauh di atas komputer digital.

Meski begitu, kedua teknologi tersebut belum siap digunakan secara luas. Hal ini berarti jalur menuju AGI masih panjang, dan tidak bisa sekadar mengandalkan perbesaran model saat ini.

Kontroversi dalam Dunia Bisnis

Perdebatan definisi AGI tidak hanya bersifat akademis, tetapi juga sudah menimbulkan konflik bisnis. OpenAI dan Microsoft, misalnya, sedang berselisih soal makna AGI yang termuat dalam kontrak kerja sama miliaran dolar.

Dalam perjanjian mereka, OpenAI berhak membatasi akses Microsoft jika AGI tercapai. Masalahnya, kapan AGI dianggap “tercapai”? OpenAI mengklaim hampir sampai, sementara Microsoft menganggap standar itu tidak jelas.

Konflik ini memperlihatkan bagaimana istilah kabur bisa jadi “bom waktu” hukum dan bisnis. Perusahaan, investor, hingga pemerintah bisa salah langkah jika membuat keputusan berdasarkan istilah yang belum memiliki definisi tegas.

Kapan AGI Akan Tiba?

Survei menunjukkan sebagian besar peneliti AI masih skeptis. Sebuah studi pada 2025 menemukan 76 persen peneliti menilai pendekatan saat ini “sangat kecil” kemungkinannya menghasilkan AGI.

Namun prediksi sering salah. Dalam beberapa tahun terakhir, banyak peneliti harus merevisi perkiraan setelah terkejut dengan kecepatan kemajuan AI. Beberapa memperkirakan tanda-tanda awal AGI mungkin muncul sekitar 2035, meski jalannya tidak akan instan.

Sebagian optimis bahwa AGI hanya masalah waktu. Sebagian lagi meragukan apakah sistem seperti itu bisa benar-benar ada. Ketidakpastian ini menunjukkan bahwa AGI mungkin lebih cocok dipandang sebagai spektrum kemampuan, bukan target tunggal.

Hingga kini AGI masih menjadi bahan diskusi di sektor bisnis dan perdebatan di kalangan akademis. Namun satu hal yang jelas, tanpa kesepakatan umum, semua bebas berbicara dengan perbedaan definisinya sendiri.

Daripada sibuk mencapai kata sepakat terkait definisinya, mungkin akan lebih berguna jika kita menilai kemampuan AI berdasarkan hal konkret, yaitu  dapat belajar mandiri, menjelaskan alasannya, dan beroperasi dengan aman.

Apakah itu akan disebut AGI atau bukan, pada akhirnya mungkin tidak sepenting memastikan teknologi tersebut benar-benar bermanfaat dan tidak merugikan manusia.

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments