ARTICLE AD BOX
Jakarta (ANTARA) - Organisasi nirlaba yang fokus pada keselamatan anak dalam penggunaan media dan teknologi Common Sense Media merilis hasil penilaian risiko terhadap produk kecerdasan buatan (AI) Gemini milik Google.
Dilansir dari Tech Crunch pada Minggu, hasil analisis menyebutkan bahwa meski Gemini mampu dengan jelas memberi tahu anak-anak bahwa ia adalah komputer, bukan teman, sistem ini masih dinilai berisiko tinggi bagi pengguna anak dan remaja.
Dalam laporannya, Common Sense menyoroti bahwa versi “Under 13” dan “Teen Experience” Gemini pada dasarnya hanya merupakan versi dewasa dengan tambahan filter keamanan.
Menurut organisasi tersebut, produk AI yang ditujukan untuk anak seharusnya dirancang dari awal dengan mengutamakan keselamatan anak, bukan sekadar modifikasi dari layanan untuk orang dewasa.
Baca juga: OpenAI bakal produksi chip AI buatannya tahun depan
Analisis juga menemukan Gemini masih dapat membagikan konten tidak pantas dan tidak aman untuk anak-anak, termasuk informasi tentang seks, narkoba, alkohol, hingga saran terkait kesehatan mental yang berpotensi membahayakan.
Hal ini menjadi perhatian serius, mengingat AI dilaporkan terlibat dalam beberapa kasus bunuh diri remaja dalam beberapa bulan terakhir.
Kekhawatiran itu semakin relevan setelah bocoran informasi menyebut Apple tengah mempertimbangkan Gemini sebagai model bahasa besar (LLM) untuk menggerakkan Siri versi terbaru yang akan dirilis tahun depan.
Jika benar, jutaan remaja berpotensi terpapar risiko yang sama, kecuali Apple menambahkan pengaman ekstra.
Baca juga: Meta perbarui aturan keamanan AI, batasi anak dari topik sensitif
Common Sense juga menyatakan bahwa produk Gemini untuk anak-anak dan remaja mengabaikan kebutuhan pengguna muda yang memerlukan panduan dan informasi berbeda dibandingkan pengguna dewasa.
Akibatnya, kedua kategori tersebut diberi label “High Risk” dalam penilaian keseluruhan, meskipun Gemini telah ditambahkan filter keamanan.
“Gemini memang sudah tepat dalam beberapa hal mendasar, tetapi keliru pada detailnya. Sebuah platform AI untuk anak seharusnya disesuaikan dengan kondisi mereka, bukan menggunakan pendekatan seragam untuk anak-anak di berbagai tahap perkembangan," kata Senior Director AI Programs Common Sense Media Robbie Torney.
"Agar AI aman dan efektif bagi anak-anak, ia harus dirancang dengan mempertimbangkan kebutuhan dan perkembangan mereka, bukan sekadar versi modifikasi dari produk yang dibuat untuk orang dewasa,” tambahnya.
Menanggapi laporan tersebut, Google menegaskan pihaknya memiliki kebijakan dan perlindungan khusus bagi pengguna di bawah 18 tahun, termasuk uji keamanan serta konsultasi dengan pakar eksternal.
Google juga mengakui masih ada respons Gemini yang tidak berjalan sesuai tujuan, sehingga perusahaan menambahkan perlindungan tambahan untuk memperbaikinya.
Google menambahkan bahwa sistemnya memang dilengkapi pengaman agar tidak membentuk kesan hubungan nyata dengan pengguna. Namun, perusahaan mempertanyakan metode pengujian Common Sense karena tidak mengetahui pertanyaan apa saja yang digunakan dalam penilaian.
Sebelumnya, Common Sense juga menilai berbagai layanan AI lainnya. Hasilnya, Meta AI dan Character.AI dikategorikan “unacceptable” karena risikonya sangat tinggi.
Sementara itu, Perplexity dinilai berisiko tinggi, ChatGPT “moderate,” dan Claude (yang ditujukan untuk pengguna 18 tahun ke atas) dianggap berisiko minimal.
Baca juga: Swiss luncurkan model kecerdasan buatan nasional Apertus
Baca juga: Apple dikabarkan sedang membangun platform pencarian berbasis AI
Penerjemah: Farhan Arda Nugraha
Editor: Indriani
Copyright © ANTARA 2025
Dilarang keras mengambil konten, melakukan crawling atau pengindeksan otomatis untuk AI di situs web ini tanpa izin tertulis dari Kantor Berita ANTARA.