ChatGPT dan AI Membuat Literasi Media Semakin Menantang

Ilustrasi ChatGPT AI
Share

digitalMamaID – Dirilisnya ChatGPT pada bulan November tahun lalu membuat orangtua dan pendidik khawatir. Bagaimana jika anak-anak menggunakannya untuk curang dalam berbagai tugas?

Meskipun valid, kekhawatirkan itu telah mengaburkan pertanyaan penting lain yang seharusnya diajukan oleh pendidik tentang artificial intelligence (AI). Misalnya bagaimana teknologi baru itu akan memengaruhi pekerjaan mereka dan siswa dalam mengerjakan tugas. Hal ini dikatakan oleh Daniel Vargas Campos, manajer program kurikulum di Common Sense Media, sebuah organisasi riset nirlaba yang mengembangkan kurikulum dan meninjau media digital dikutip dari Education Week.

Salah satu pertanyaan penting, bagaimana AI akan mengubah gaya pengajaran tentang keterampilan berliterasi media seperti membantu siswa memahami keakuratan media yang mereka konsumsi?

Menurut Daniel, kemunculan AI menjadi tantangan tersendiri dalam literasi media, termasuk media digital. “Kami khawatir bahwa dengan meningkatnya AI, informasi yang salah akan tersebar lebih banyak di ruang online. Aspek lain yang kurang dibicarakan adalah bagaimana hype AI telah menantang cara kita memahami literasi media sebelum kita melihat contoh penggunaan AI untuk tujuan misinformasi secara eksplisit,” katanya.

Menyulitkan 

Kehadiran AI di, kata Daniel, semakin menyulitkan dalam memilah apa yang fakta dan apa yang hoaks. Mengingatkan pada “infodemi”, sebuah istilah yang digunakan oleh WHO sekitar dua tahun yang lalu di tengah pandemi. Infodemi merujuk pada keadaan di mana terlalu banyak informasi di dunia maya dan hal itu. 

“Tantangan sebenarnya adalah bahwa hanya dengan membicarakan dampak negatif potensial yang dapat dimiliki kecerdasan buatan dalam bidang misinformasi, kita menciptakan lingkungan di mana lebih sulit bagi orang untuk mempercayai apa yang mereka lihat secara online,” tuturnya.

Ia mencontohkan, beberapa waktu yang lalu, ada video viral tentang pertunjukan kebut-kebutan dan ada bayi dalam video tersebut. Video itu mencoba membangkitkan emosi, seperti, “Oh, itu seharusnya tidak diizinkan.” Tetapi yang menarik adalah bahwa respons orang terhadap video tersebut, “Oh, ini adalah deep fake.” Padahal video tersebut nyata, hanya saja merupakan contoh dari jenis misinformasi paling umum, yaitu informasi nyata yang diambil dari konteksnya.

“Tantangannya sekarang adalah ketika kita dengan mudah menyebutnya sebagai deep fake, maka kita melewati langkah tambahan untuk menerapkan keterampilan literasi media kita. Kita melewati pemikiran kritis yang perlu kita lakukan untuk benar-benar mempertimbangkan apa dampaknya, apa yang ingin dicapai,” tuturnya.

Kondisi ini menuntut perubahan pendekatan pendidikan. Selain karena maraknya AI, juga karena pola pencarian informasi anak-anak sekarang sudah berbeda. “Dalam hal mengajar literasi media, kita perlu memperbarui pendekatan kita agar sesuai dengan pengalaman nyata siswa sebelum kita bahkan membahas AI. Kita harus memahami bahwa sebagian besar anak-anak mendapatkan informasi dari media sosial, dan banyak perilaku dan kebiasaan pencarian informasi yang mereka kembangkan terbentuk sebagai bagian dari komunitas online,” katanya.

Saat membicarakan AI, hal penting dari percakapan ini bukan hanya tentang mengkomunikasikannya dengan anak-anak. Akan tetapi juga dengan memperhatikan perspektif apa yang mereka khawatirkan. Bagaimanapun, kata Daniel, AI memiliki dampak negatif yang cukup besar dalam kehidupan anak-anak.

Jadi, ini adalah pertanyaan tentang bagaimana kita memperbarui literasi media untuk lima atau sepuluh tahun ke depan? Dan salah satu aspeknya adalah dengan mengintegrasikan atau menambahkan pembicaraan tentang literasi AI ke dalam cara kita berbicara tentang literasi media.

Hubungan bermakna

Saat ChatGPT ramai diperbincangkan, yang saat itu langsung terpikir ialah anak-anak akan menggunakannya untuk menulis esai dan kemudian menjadi plagiarisme. “Kita akan langsung melompat ke penggunaan kasus yang mungkin jarang terjadi seperti itu. Saya pikir ada perbedaan karena anak-anak menggunakan AI ke berbagai aspek kehidupan digital mereka, bukan soal mengerjakan tugas saja,” kata Daniel.

Misalnya saja penggunaan Discord memiliki AI untuk menyimpulkan percakapan. Jika kita berada di forum online dan mencoba mengikuti percakapan dengan ribuan orang yang memberikan komentar, itu bisa cukup melelahkan. Sekarang ada AI yang bisa digunakan untuk menyimpulkan percakapan tersebut.

Selain plagiarisme, ada pertanyaan penting lain yang muncul, yaitu tentang bagaimana kita dapat mengidentifikasi bias dalam kehidupan sosial dan komunitas? Bagaimana kita dapat mengidentifikasi apakah informasi yang disampaikan kepada kita memberikan representasi yang aktual?

Daniel menyarankan agar para guru, juga orangtua, dapat menciptakan hubungan yang lebih bermakna antara literasi media dan pembelajaran sosial-emosional. Menurutnya, ruang itu masih jarang disentuh dan dikembangkan. Pembelajaran sosial-emosional melibatkan kesadaran diri dan kesadaran sosial. Dengan cara itu, semua tanya akan terjawab.

“Kita juga ingin anak-anak mempertimbangkan bukan hanya bagaimana media membuat mereka merasakan atau bagaimana membuat mereka bereaksi. Selain itu, apa yang bisa mereka perhatikan tentang dampak umum yang jenis informasi atau percakapan ada di perilaku orang lain,” tutur Daniel. [*]

Leave a Reply

Your email address will not be published. Required fields are marked *

Bingung cari konten yang aman untuk anak?
 
Dapatkan rekomendasi menarik dan berikan pendapatmu di Screen Score!
Ilustrasi melatih anak bicara/Bukbis Ismet Candra Bey/digitalMamaID