Google berencana menggunakan AI yang disebut BERT untuk memotong hasil pencarian yang cabul
Uncategorized

Google berencana menggunakan AI yang disebut BERT untuk memotong hasil pencarian yang cabul

OAKLAND, KALIF. — Ketika aktris AS Natalie Morales melakukan pencarian Google untuk “Latina teen” pada 2019, dia menjelaskan dalam sebuah tweet bahwa yang dia temui hanyalah pornografi.

Pengalamannya mungkin berbeda sekarang.

Unit Alphabet Inc telah memangkas hasil eksplisit sebesar 30 persen selama setahun terakhir dalam pencarian untuk “remaja latina” dan lainnya yang terkait dengan etnis, preferensi seksual, dan jenis kelamin, Tulsee Doshi, kepala produk untuk tim AI yang bertanggung jawab Google, mengatakan kepada Reuters, Rabu. .

Doshi mengatakan Google telah meluncurkan perangkat lunak kecerdasan buatan baru, yang dikenal sebagai BERT, untuk menafsirkan dengan lebih baik ketika seseorang mencari hasil yang cabul atau yang lebih umum.

Selain “remaja latina”, kueri lain yang sekarang menunjukkan hasil berbeda termasuk “la chef lesbienne”, “kamar asrama perguruan tinggi”, “instruktur yoga latina”, dan “bus lesbienne”, menurut Google.

“Itu semua adalah serangkaian hasil yang terlalu seksual,” kata Doshi, menambahkan bahwa hasil pencarian yang secara historis sugestif itu berpotensi mengejutkan banyak pengguna.

Morales tidak segera menanggapi permintaan komentar melalui perwakilan. Tweet-nya tahun 2019 mengatakan dia telah mencari gambar untuk presentasi, dan telah melihat kontras dalam hasil untuk “remaja” dengan sendirinya, yang dia gambarkan sebagai “semua hal remaja normal,” dan meminta Google untuk menyelidiki.

Raksasa pencarian tersebut telah menghabiskan waktu bertahun-tahun menangani umpan balik tentang konten ofensif dalam alat periklanannya dan dalam hasil pencarian untuk “hot” dan “ceo”. Itu juga memotong hasil seksual untuk “gadis kulit hitam” setelah artikel jurnal 2013 oleh penulis Safiya Noble mengangkat kekhawatiran tentang representasi berbahaya.

Google pada hari Rabu menambahkan bahwa dalam beberapa minggu mendatang akan menggunakan AI yang disebut MUM untuk mulai mendeteksi dengan lebih baik kapan harus menunjukkan sumber daya dukungan yang terkait dengan bunuh diri, kekerasan dalam rumah tangga, kekerasan seksual, dan penyalahgunaan zat.

MUM harus mengenali “titik panas bunuh diri Sydney” sebagai kueri untuk lokasi lompat, bukan perjalanan, dan bantuan dengan waktu yang lebih lama

pertanyaan, termasuk “mengapa dia menyerang saya ketika saya mengatakan saya tidak mencintainya” dan “cara paling umum bunuh diri selesai,” kata Google.

(Laporan oleh Paresh Dave; Penyuntingan oleh Karishma Singh)


Posted By : angka keluar hk