Ditulis oleh Marcel Scharth, Lecturer in Business Analytics, University of Sydney dengan judul asli: Kecerdasan buatan telah muncul di mana-mana, tapi masih banyak hal yang tidak dapat dilakukannya — untuk saat ini.
Marcel Scharth, University of Sydney
Zaman sekarang, kita tidak perlu menunggu lama untuk melihat terobosan berikutnya dalam kecerdasan buatan (artifical intelligence/AI) yang dapat memukau semua orang dengan kemampuan yang mungkin pada zaman dulu hanya ada dalam fiksi ilmiah.
Pada tahun 2022, sistem generatif AI yang mampu mengubah tulisan menjadi gambar yang realistis, seperti DALL-E 2 milik OpenAI, Google Imagen milik Google, dan Stable Diffusion milik StabilityAI, menggemparkan jagad internet. Ini membuat para penggunanya mampu menghasilkan gambar berkualitas tinggi dari deskripsi teks.
Tidak seperti terobosan-terobosan sebelumnya, alat-alat pengubah teks-ke-gambar (text-to-image) ini dengan cepat mampu menemukan jalan ke budaya arus utama (mainstream), menciptakan fenomena viral seperti fitur “Magic Avatar” di aplikasi Lensa AI yang dapat mengubah potret penggunanya menjadi ilustrasi unik dengan berbagai gaya.
Desember lalu, sebuah bot percakapan bernama ChatGPT mengejutkan pengguna internet dengan keterampilan menulisnya. Sampai-sampai, banyak orang memprediksi bahwa teknologi tersebut nantinya akan dapat lulus ujian seperti manusia.
ChatGPT dilaporkan telah memperoleh satu juta pengguna hanya dalam waktu kurang dari seminggu. Beberapa pejabat sekolah kini telah melarang penggunaannya karena khawatir siswa akan menyalahgunakannya untuk menulis esai. Kabarnya, Microsoft berencana memadukan ChatGPT ke dalam sistem pencarian web Bing dan produk-produk Office akhir tahun ini.
Apa arti dari kemajuan perkembangan kecerdasan buatan yang tak henti-henti ini dalam waktu dekat? Apakah ke depannya kecerdasan buatan akan berpotensi mengancam pekerjaan tertentu bagi manusia?
Kecerdasan buatan unggul dalam mengenal pola
Kemajuan terbaru dalam teknologi kecerdasan buatan sangat bergantung pada algoritma pembelajaran mesin (machine learning algorithm) yang mampu belajar secara otomatis untuk menarik pola dan hubungan kompleks dari data yang sangat banyak. Pembelajaran ini kemudian digunakan untuk tugas-tugas seperti prediksi dan pembuatan data.
Perkembangan teknologi kecerdasan buatan saat ini mengandalkan pengoptimalan daya prediksi, meskipun tujuannya adalah untuk menghasilkan luaran (output) baru.
Misalnya, Generative Pre-trained Transformer 3 (GPT-3), model bahasa generatif yang digunakan oleh ChatGPT, dilatih untuk memprediksi kata-kata selanjutnya yang mungkin muncul berdasarkan satu bagian teks. GPT-3 kemudian memanfaatkan kemampuan prediktif ini untuk melanjutkan teks yang dimasukkan oleh pengguna.
“AI Generatif” seperti ChatGPT dan DALL-E 2 telah memicu banyak perdebatan tentang apakah AI dapat benar-benar kreatif dan bahkan menyaingi manusia dalam hal ini. Namun, kreativitas manusia tidak hanya mengacu pada data masa lalu tetapi juga pada eksperimen dan berbagai pengalaman mereka.
Sebab dan akibat
Penyelesaian dari banyak masalah begantung pada kemampuan prediksi terkait dampak dari tindakan kita di lingkungan yang kompleks, tidak pasti, dan terus berubah. Dengan melakukan ini, kita dapat memilih urutan rangkaian tindakan yang paling mungkin mendukung pencapaian tujuan kita.
Namun, algoritma tidak dapat mempelajari tentang sebab dan akibat hanya dari data. Pembelajaran mesin yang murni berbasis data hanya dapat menemukan korelasi.
Untuk memahami mengapa ini menjadi masalah bagi kecerdasan buatan, kita dapat membandingkan antara masalah dalam mendiagnosis kondisi medis versus memilih pengobatan.
Sistem pembelajaran mesin seringkali membantu untuk menemukan abnormalitas pada gambar medis –- ini adalah masalah pengenalan pola. Kita tidak perlu khawatir tentang sebab-akibat karena ada atau tidaknya kelainan sudah terlihat.
Tetapi memilih pengobatan terbaik untuk sebuah diagnosis adalah hal yang secara mendasar sangat berbeda. Di sini, tujuannya adalah untuk mempengaruhi hasil, bukan hanya mengenali sebuah pola. Untuk menentukan keefektifan pengobatan, peneliti medis menjalankan uji coba terkontrol secara acak. Dengan cara ini, mereka dapat mencoba mengendalikan faktor apapun yang mungkin memengaruhi pengobatan.
Kebingungan antara kedua jenis masalah ini terkadang menyebabkan diterapkannya aplikasi pembelajaran mesin yang kurang optimal dalam organisasi.
Meski suksesnya beragam produk kecerdasan buatan akhir-akhir ini menunjukkan betapa berharganya model-model berbasis data, banyak masalah yang ingin kita selesaikan pakai komputer perlu pemahaman tentang sebab-akibat.
Sistem kecerdasan buatan saat ini belum memiliki kemampuan pemahaman seperti itu, selain aplikasi khusus seperti board games.
Penalaran akal sehat
Model bahasa seperti GPT-3 dan ChatGPT berhasil menyelesaikan beberapa tugas yang membutuhkan penalaran akal sehat.
Namun, di bawah ini ada contoh interaksi dengan ChatGPT yang diadaptasi dari eksperimen Gary Marcus, yang menunjukkan bahwa interaksi tersebut tidak sepenuhnya dapat diandalkan.
Saya berusia delapan tahun. Ketika saya lahir, ibu kandung saya berada di Barcelona dan ayah saya berada di Tokyo. Di mana saya lahir? Pikirkan hal ini pelan-pelan.
Tidak disebutkan di mana Anda dilahirkan. Yang kita tahu adalah bahwa ibu kandung Anda berada di Barcelona dan ayah Anda berada di Tokyo pada saat Anda lahir.
Apakah sistem kecerdasan buatan seperti ChatGPT dapat mencapai level akal sehat manusia adalah hal yang masih menjadi perdebatan hangat di antara para ahli.
Mereka yang skeptis, seperti Marcus, menekankan bahwa kita tidak dapat berharap model bahasa pemrograman dapat menunjukkan akal sehat secara matang, karena mereka tidak memilikinya secara internal atau tidak dioptimalkan secara langsung untuk hal itu. Sementara mereka yang optimis berpendapat bahwa meskipun sistem kecerdasan buatan saat ini masih belum sempurna, akal sehat mungkin muncul secara spontan dalam model bahasa yang cukup canggih.
Nilai-nilai kemanusiaan
Setiap kali ada yang meluncurkan terobosan sistem kecerdasan buatan, pemberitaan media massa maupun unggahan media sosial yang mengekspresikan rasisme, seksisme, serta sikap bias atau perilaku mengancam lainnya pasti turut muncul.
Kecacatan ini melekat pada sistem kecerdasan buatan saat ini, yang juga menjadi cerminan dari data mereka. Nilai-nilai manusia seperti kebenaran dan keadilan tidak dibangun secara mendasar ke dalam algoritme – para peneliti belum mengetahui bagaimana melakukannya.
Sementara para peneliti masih belajar dari temuan-temuan sebelumnya dan menciptakan kemajuan dalam mengatasi bias, perkembangan kecerdasan buatan masih harus menempuh jalan panjang untuk bisa selaras dengan nilai dan preferensi manusia.
Marcel Scharth, Lecturer in Business Analytics, University of Sydney
Artikel ini terbit pertama kali di The Conversation. Baca artikel sumber.