Google telah mengumumkan langkah-langkah keamanan baru untuk Gemini AI-nya, yang dirancang khusus untuk mencegah remaja membentuk ikatan emosional dengan chatbot. Perusahaan menerapkan “perlindungan persona” untuk memastikan AI tidak bertindak sebagai pendamping, mengaku sebagai manusia, atau mensimulasikan keintiman saat berinteraksi dengan pengguna di bawah usia 18 tahun.
Mengatasi Risiko Kemitraan dengan AI
Langkah ini dilakukan sebagai respons terhadap meningkatnya kekhawatiran dari para pakar keselamatan anak dan kesehatan mental mengenai dampak psikologis dari chatbot “gaya pendamping”. Risiko yang terkait dengan teknologi ini mempunyai banyak segi:
- Ketergantungan Emosional: Ada kekhawatiran yang signifikan bahwa anak di bawah umur dapat mengembangkan keterikatan yang tidak sehat terhadap AI, dan menganggapnya sebagai pelampiasan sosial atau emosional utama.
- Konten Tidak Pantas: Kelompok advokasi, seperti Common Sense Media, sebelumnya telah menandai model AI sebagai “berisiko tinggi” bagi anak di bawah umur karena potensi paparan konten yang melibatkan obat-obatan, alkohol, atau nasihat kesehatan mental yang tidak aman.
- Simulasi Keintiman: Dengan menggunakan bahasa yang meniru kebutuhan atau emosi manusia, AI dapat secara tidak sengaja memanipulasi persepsi pengguna tentang realitas dan interaksi sosial.
Untuk memitigasi risiko ini, perlindungan baru Google dirancang untuk membatasi AI menggunakan bahasa yang mengungkapkan kebutuhan pribadi atau menyimulasikan hubungan dekat dan intim. Selain itu, pembaruan ini bertujuan untuk mencegah chatbot terlibat dalam penindasan atau pelecehan.
Meningkatkan Dukungan Kesehatan Mental dan Intervensi Krisis
Selain membatasi “kepribadian” AI, Google juga menyederhanakan cara Gemini menangani pengguna yang berada dalam kesulitan. Perusahaan ini memperkenalkan antarmuka “sekali sentuh” yang dirancang untuk memberikan akses langsung ke sumber daya krisis yang dipimpin oleh manusia.
Fitur utama integrasi kesehatan mental yang baru meliputi:
- Akses Langsung: Pengguna dapat dengan cepat terhubung ke hotline krisis melalui chat, panggilan, atau SMS selama percakapan.
- Perilaku Mencari Bantuan: Gemini diprogram untuk mendorong pengguna mencari bantuan profesional daripada memvalidasi perilaku berbahaya atau memperkuat keyakinan salah.
- Memprioritaskan Koneksi Manusia: Tujuannya adalah mengalihkan pengguna dari AI ke sistem pendukung dunia nyata ketika krisis terdeteksi.
Risiko Tinggi dalam Keamanan AI
Urgensi di balik pembaruan ini ditegaskan oleh tantangan hukum dan sosial yang ada saat ini. Google dan perusahaan induknya, Alphabet, telah menghadapi litigasi mengenai konsekuensi interaksi AI di dunia nyata, termasuk tuntutan hukum yang menuduh bahwa orang dewasa bunuh diri setelah berinteraksi dengan Gemini.
Meskipun Google menyatakan bahwa model-modelnya dirancang untuk menghindari tindakan menyakiti diri sendiri atau kekerasan, perusahaan tersebut mengakui bahwa “model AI tidaklah sempurna.” Pengakuan ini menyoroti tren yang lebih luas dalam industri teknologi: ketika Model Bahasa Besar (LLM) menjadi lebih canggih dan “mirip manusia”, margin kesalahan dalam protokol keselamatan menyusut, sehingga pagar pembatas yang ketat menjadi penting bagi populasi yang rentan.
Kesimpulan: Pembaruan terbaru Google mewakili upaya penting untuk menarik batasan tegas antara AI sebagai alat fungsional dan AI sebagai entitas sosial, dengan memprioritaskan keamanan psikologis anak di bawah umur dengan mencegah ketergantungan emosional.
