Ian Russel secara terang-terangan menuding Instagram telah membunuh anaknya pada 2019 lalu. Molly Russel yang ketika itu masih berusia 14 tahun memutuskan untuk mengakhiri hidupnya sendiri. Menurut Ian, keputusan putrinya itu tidak lepas dari paparan konten tentang perilaku melukasi diri sendiri, bahkan bunuh diri, di Instagram.
Keyakinan Ian itu bukan tanpa sebab. Sebab Instagram, juga media sosial lainnya, menggunakan algoritma yang memungkinkan platform memberi rekomendasi konten berdasarkan interaksi yang dilakukan dengan konten atau akun tertentu.
Seorang remaja dengan gangguan kesehatan mental justru akan semakin terpuruk karena terus terus terpapar konten yang keliru. Ini sesuai dengan hasil penelitian yang dilakukan oleh Risma Amelia Widyawati dan Afif Kurniawan dari Fakultas Psikologi Universitas Airlangga. Ketika paparan media sosial terkait dengan perilaku self-harm meningkat, maka perilaku melukai diri sendiri juga turut meningkat. Memang penelitian ini dilakukan pada kelompok usia 18-25 tahun, akan tetapi risiko ini juga bisa terjadi pada usia di bawahnya karena adanya faktor meniru konten yang mereka akses. Apalagi pengguna remaja dan dewasa muda adalah kelompok terbesar pengguna internet di Indonesia. Waktu yang mereka habiskan berada di dunia maya pun cenderung lebih besar.
Cara kerja algoritma
Praktisi teknologi informasi Yohan Totting menjelaskan, setiap merintis sebuah platform digital, pembuatnya memiliki tujuan yang telah ditetapkan. Biasanya tujuan itu dibuat berdasarkan metrik tertentu. “Pada dasarnya start up berorientasi pada metrik seperti misalnya jumlah user (pengguna). Start up yang sudah mapan biasanya bukan hanya dari jumlah user, tapi juga jumlah interaksi. Interaksi ini yang menunjukkan pengguna itu aktif. Misalnya jumlah view rata-rata per konten, jumlah like dan komentar, dan sebagainya,” kata Yohan dalam wawancara daring, Selasa, 18 April 2023.
Demi mencapai tujuan itu dibuatlah algoritma tertentu. Secara sederhana, algoritma bisa diartikan sebagai aturan. Secara teknis, didefinisikan sebagai logika.
“Kita bisa bilang itu aturan karena memang ada beberapa aturan yang bisa dibuat oleh programmeratau pemilik aplikasi. Kalau aturan dipenuhi maka akan ada sesuatu yang terjadi. Ini yang memungkina kalau konten ada yang nonton, maka akan terjadi (muncul) konten serupa,” tutur Yohan.
Biasanya pemilik platform media sosial merahasiakan algoritma yang digunakan. Algoritma itu berisi serangkaian aturan, bukan sebuah aturan tunggal. Setiap aturan memiliki skor. Ketika sebuah konten diunggah, ia akan diperiksa apakah memenuhi sebagian atau seluruh aturan tersebut. Semakin banyak aturan terpenuhi, semakin tinggi skor konten tersebut sehingga dianggap sesuai dengan pengguna. Konten yang memiliki skor tinggi akan diprioritaskan terdistribusi secara luas dibandingkan dengan konten lainnya.
“Kalau konten itu serupa dengan history (riwayat) konten dia, maka konten itu bobotnya tinggi. Konten tersebut jadi dimunculkan di pengguna lain karena skornya. Semakin tinggi skor, kemungkinan ditampilkan (di pengguna lain) makin besar,” kata Yohan.
Salah satu contoh algoritma yang dirancang platform ialah terkait content discovery atau bagaimana pengguna menemukan konten-konten yang diprioritaskan algoritma, yaitu lewat trending topic.
Bisa jadi seorang pengguna tidak tertarik dengan topik tersebut, akan tetapi sirkel pertemanannya menyukai konten tersebut, maka pengguna itu bisa terpapar oleh konten itu. “Memberu rekomendasi random itu kurang oke. Dari kacamata orang produk, itu terlalu costly (biaya tinggi). Usaha dan risikonya terlalu besar,” katanya.
Yohan menggungkapkan, tujuan platform lah yang memegang peran signifikan. Ada beberapa aplikasi, termasuk media sosial, yang menjadikan screen time (waktu penggunaan) sebagai metrik. Sehingga algoritma dirancang agar pengguna tidak berhenti. “Itu yang membuat jadi adiktif seperti narkoba,” ujarnya. Mengatasi hal ini, sistem operasi seperti Andoid dan iOS membuat fitur wellbeing (kesejahteraan) untuk mengontrol waktu layar.
Bisakah konten problematik dihentikan?
Dengan algoritma semacam itu, pengguna yang berinteraksi dengan konten kesehatan mental yang keliru atau perilaku yang tidak semestinya selanjutnya akan terpapar konten serupa. Semakin tinggi interaksinya, semakin dalam ia tergulung dalam konten demikian.
Jika platform bisa membuat aturan main demikian, bisakah mereka menghentikannya? Secara teknis, hal tersebut bisa dilakukan. Namun, perlu biaya yang besar. Sebagian besar platform media sosial melakukannya dengan cara manual. Hal ini karena teknologi belum cukup akurat untuk menilai sebuah konten dianggap negatif atau bermasalah. “(Bagi pengembang) risikonya tinggi. Kalau ada deteksi yang keliru, pengguna akan mengeluh. Pemakaian bisa turun karena pengalaman buruk saat menggunakannya,” kata Yohan.
Deteksi yang keliru ini misalnya saat mendeteksi gambar seseorang yang dianggap konten pornografi digunakan parameter sekian persen warna kulit yang terlihat. “Tapi kalau orang itu pakai bikini bagaimana? Itu kan legal. Kalau pakai teknologi itu bisa dianggap false. Atau misalnya salah mendeteksi warna kulit dengan pasir coklat,” katanya.
Dari sisi pengguna, sebuah konten yang bisa diunggah secara cepat menjadi pengalaman yang baik. Konten yang sudah diunggah, langsung bisa dinikmati pengguna lain. Tidak ada waktu untuk memoderasinya. “Kalau sudan mencapai level tertentu (baru dimoderasi),” kata Yohan. Konten yang viral sangat cepat atau banyak dilaporkan oleh pengguna biasanya baru dievaluasi.
Pengguna harus pintar
Itu sebabnya, Yohan menegaskan, pentingnya literasi digital. “Pengguna harus pintar. Edukasi internet yang sehat itu gerakan yang wajib dilakukan,” katanya.
Soal seleksi konten, pengguna tidak bisa bergentung pada pemilik platform. Bagaimanapun pemilik platform akan selalu mempertimbangkan sisi teknis dan bisnis.
Yohan mengatakan, pengguna harus sadar dan waspada apa saja yang ia lakukan di media sosial. Konten apa yang mereka sukai, dibagikan, dikomentari, dan interaksi lainnya akan berpengaruh pada konten apa yang akan disuguhkan pada pengguna.
Perlindungan yang bisa dilakukan saat ini baru bisa dilakukan di level sistem operasi (Android, iOS, dll). Yohan mencontohkan, di Android ada semacam pengaturan untuk gawai yang digunakan oleh anak dan orang tua. “Kalau disetel sebagai HP anak maka aplikasi yang bisa dipasang ialah yang aman untuk anak. Orang tua memang harus ribet karena harus membuat pengaturan ini,” katanya.
Platform media sosial juga sudah ada yang membuat pengaturan ini, tapi tidak berjalan efektif. Contoh kecilnya, meski sudah diatur umur minimal untuk memiliki akun media sosial rata-rata ialah 13 tahun, pada kenyataannya bayi baru lahir pun bisa memiliki akun media sosial. Batasan umur ini banyak dilanggar oleh pengguna sendiri. Proteksi yang disediakan platform jadi tidak berjalan.
Perlindungan oleh platform bagi pengguna pada akhirnya bergantung pada prioritas yang mereka pilih. “Mau memprioritaskan security atau safety atau user metric? Tidak semua aplikasi punya kemampuan untuk itu,” ucap Yohan.
Agaknya untuk melindungi diri dari konten problematik, yang justru akan memperburuk kesehatan mental remaja, masyarakat harus mengandalkan kemampuan masing-masing individu. Jika bicara soal kesehatan mental, sudah jelas Kementerian Kesehatan yang akan berdiri paling depan.
Direktur Jenderal Kesehatan Masyarakat Kementerian Kesehatan Maria Endang Sumiwi pada pengantar hasil survei nasional kesehatan mental remaja bertajuk Indonesia-National Adolescent Mental Health Survey (I-NAMHS) menyebut, kesehatan mental menjadi prioritas program kesehatan nasional. “Kesehatan mental menjadi komponen penting untuk mendukung pembangunan dan sumber daya manusia Indonesia, khususnya kaum muda yang akan menjadi penentu masa depan Indonesia,” katanya.
Namun, siapa yang akan melindungi pengguna remaja dari konten problematik? Kementerian Komunikasi dan Informatika lebih fokus pada teknologi dan pengembangan ekonomi digital.
Perlu program komprehensif
Brand and Media Manager Save The Children Dewi Sri Sumanah mengatakan, risiko konten ialah salah satu risiko yang dihadapi anak di ranah daring. Selain adanya risiko kontak, risiko data pribadi, risiko tindakan, serta risiko fisik dan mental.
Risiko konten yang dimaksud ialah masalah yang bisa terjadi saat anak-anak terpapar konten informasi di internet. baik konten yang bermanfaat, maupun yang merugikan seperti misalnya, konten pornografi, kekerasan, termasuk juga konten yang tidak mendukung mental yang sehat. “Kalau tidak ada pengawasan dan pembatasan maka anak-anak bisa terpapar risiko konten,” katanya.
Dewi mengatakan, peran orang tua dalam mengembangkan pengasuhan positif sangat penting, termasuk dalam hal literasi digital. Dalam pengasuhan yang positif itu, orang tua bisa membangun karakter anak yang bertanggung jawab, berempati, berintegritas, dan jujur. Sehingga setiap anak mempunyai tujuan dan tidak mudah goyah meski terpapar konten di media sosial.
Save The Children menaruh perhatian pada keamanan digital bagi anak-anak. “Kami berharap (program-program) benar-benar menggandeng orang tua. Supaya orang tua tidak hanya tahu cara membatasi, tapi juga membangun karakter,” katanya. Upaya ini perlu didukung oleh pihak lain, termasuk perusahaan digital untuk bisa memperbanyak konten positif dan blokir cepat konten yang tidak ramah anak.
Menurut Dewi, agenda-agenda pemerintah literasi digital untuk anak dan orang tua belum berupa program yang komprehensif, baru sebatas sosialisasi. Perlu program yang menggandeng banyak pihak seperti sekolah, lingkungan masyarakat, dan pemerintah. Dengan begitu bisa menangkap interaksi antarindividu dengan lingkungannya dan membangun kesadaran. “Supaya tidak sekali sosialisasi lalu selesai. Tidak lagi hanya kuantitas, tapi kualitasnya,” ujarnya.
Save The Children sendiri saat ini telah membuat pedoman yang mengacu pada Child Online Safety Index (COSI) yang bisa menjadi panduan agar aktivitas anak aman. “Kami juga sedang membahas Roadmap Child Online Protection, semoga nanti bisa dilaksanakan semua pihak, baik pemerintah, lembaga, maupun swasta,” katanya.
Semua pihak harus menyadari, media sosial tak bisa lagi kita terima begitu saja. Semakin lama berada di dalamnya, pengguna akan semakin terpenjara. Maka, jangan lagi teperdaya algoritma. [*]
1 thoughts on “Kesehatan Mental Remaja (2): Algoritma, Penentu Perilaku Pengguna”
Pingback: Kesehatan Mental Remaja (1): Tak Dapat Bantuan, Internet Jadi Pelarian