Google meminta maaf atas kegagalan dalam peluncuran generator gambar kecerdasan buatan yang baru, dan mengakui bahwa dalam beberapa kasus, instrumen tersebut akan “memberikan kompensasi yang berlebihan” dalam mencari berbagai macam individu meskipun variasi tersebut tidak masuk akal.
Klarifikasi parsial pada hari Jumat tentang mengapa foto-fotonya menempatkan orang-orang dengan warna kulit tertentu di lingkungan bersejarah di mana mereka biasanya tidak dapat ditemukan muncul sehari setelah Google mengumumkan bahwa mereka secara singkat menghentikan chatbot Gemini untuk membuat foto apa pun dengan orang-orang di dalamnya. Hal ini merupakan respons terhadap kemarahan media sosial dari beberapa pelanggan yang mengklaim bahwa instrumen tersebut memiliki bias anti-kulit putih karena menghasilkan serangkaian foto yang bersifat rasis sebagai respons terhadap perintah tertulis.
“Jelas bahwa fitur ini meleset dari sasaran,” kata sebuah posting blog pada hari Jumat dari Prabhakar Raghavan, wakil presiden senior yang menjalankan mesin pencari Google dan perusahaan lain. “Beberapa gambar yang dihasilkan tidak akurat atau bahkan menyinggung. Kami berterima kasih atas masukan dari pengguna dan mohon maaf karena fitur ini tidak berfungsi dengan baik.”
Raghavan tidak menyebutkan contoh spesifiknya, tetapi di antara mereka yang menarik perhatian di media sosial minggu ini adalah foto-foto yang menggambarkan seorang wanita kulit hitam sebagai bapak pendiri AS dan menunjukkan orang-orang kulit hitam dan Asia sebagai tentara Jerman era Nazi. Associated Press tidak dapat mengkonfirmasi secara independen petunjuk apa yang digunakan untuk menghasilkan foto-foto ini.
Google menambahkan fitur penghasil gambar baru ke chatbot Gemini, yang sebelumnya dikenal sebagai Bard, sekitar tiga minggu lalu. Itu dibangun di atas eksperimen analisis Google sebelumnya yang disebut Imagen 2.
Google telah menyadari selama beberapa waktu bahwa instrumen semacam itu mungkin sulit digunakan. Dalam makalah teknis tahun 2022, para peneliti yang mengembangkan Imagen memperingatkan bahwa instrumen AI generatif dapat digunakan untuk melecehkan atau menyebarkan informasi yang salah “dan menimbulkan banyak kekhawatiran terkait pengucilan dan bias sosial dan budaya.” Masalah-masalah ini menandakan keputusan Google untuk tidak meluncurkan “demo publik” Imagen atau kode yang mendasarinya, para peneliti menambahkan pada saat itu.
Sejak saat itu, tekanan untuk meluncurkan produk AI generatif ke publik telah meningkat karena persaingan sengit antara perusahaan teknologi yang berupaya memanfaatkan minat terhadap peningkatan teknologi yang dipicu oleh kemunculan chatbot OpenAI, ChatGPT.
Masalah dengan Gemini bukanlah masalah pertama yang baru-baru ini berdampak pada pembuat citra. Microsoft perlu mengatur instrumen Desainernya sendiri beberapa minggu yang lalu setelah beberapa orang menggunakannya untuk membuat foto pornografi palsu Taylor Swift dan selebritas lainnya. Penelitian juga menunjukkan bahwa generator gambar AI dapat memperkuat stereotip ras dan gender yang ditemukan dalam pengalaman pelatihan mereka, dan tanpa filter, mereka lebih cenderung menampilkan pria berkulit terang ketika diminta untuk menghasilkan seseorang dalam berbagai konteks.
“Saat kami membangun fitur ini di Gemini, kami menyempurnakannya untuk memastikan fitur ini tidak masuk ke dalam perangkap yang pernah kita lihat di masa lalu dengan teknologi pembuatan gambar — seperti membuat gambar kekerasan atau seksual eksplisit, atau penggambaran orang sungguhan. , kata Raghavan pada hari Jumat. “Dan karena pengguna kami berasal dari seluruh dunia, kami ingin ini berfungsi dengan baik untuk semua orang.”
Dia mengatakan banyak orang mungkin “ingin menerima banyak orang” ketika meminta gambar pemain sepak bola atau seseorang yang sedang berjalan-jalan dengan anjing. Namun pelanggan yang mencari seseorang dari ras atau etnis tertentu atau konteks budaya tertentu “harus mendapatkan respons yang secara akurat mencerminkan apa yang Anda minta.”
Meskipun memberikan kompensasi yang berlebihan dalam menanggapi beberapa permintaan, di beberapa permintaan lainnya, hal ini “lebih berhati-hati daripada yang kami inginkan dan menolak untuk menjawab permintaan tertentu sepenuhnya – salah menafsirkan beberapa permintaan yang sangat anodyne sebagai hal yang sensitif.”
Dia tidak menjelaskan perintah apa yang dia maksud tetapi Gemini secara rutin menolak permintaan topik tertentu seperti aksi protes, menurut penilaian AP pada hari Jumat terhadap instrumen tersebut, di mana mereka menolak untuk membuat foto mengenai Arab Spring, George Floyd. protes atau Lapangan Tiananmen. Dalam satu kesempatan, chatbot menyatakan bahwa mereka tidak ingin berkontribusi terhadap penyebaran informasi yang salah atau “meremehkan topik-topik sensitif.”
Sebagian besar kemarahan minggu ini terhadap keluaran Gemini berasal dari X, sebelumnya Twitter, dan diperkuat oleh pemilik platform media sosial Elon Musk yang mengecam Google atas apa yang ia gambarkan sebagai “program rasis dan anti-peradaban yang gila.” Musk, yang memiliki startup AI sendiri, tak henti-hentinya mengkritik pembuat AI saingannya selain Hollywood karena dugaan bias liberal.
Raghavan mengatakan Google akan melakukan “pengujian ekstensif” sebelum mengaktifkan kemampuan chatbot untuk mengidentifikasi orang lagi.
Peneliti Universitas Washington Sourojit Ghosh, yang telah mempelajari bias dalam generator gambar AI, menyatakan pada hari Jumat bahwa dia tidak puas bahwa pesan Raghavan berakhir dengan penafian bahwa pemerintah Google “tidak dapat menjanjikan bahwa Gemini tidak akan sesekali menghasilkan gambar yang memalukan, tidak akurat, atau menyinggung. hasil.”
Bagi sebuah organisasi yang telah menyempurnakan algoritma pencarian dan memiliki “salah satu kumpulan data terbesar di dunia, menghasilkan hasil yang akurat atau hasil yang tidak menyinggung harus menjadi batasan yang cukup rendah sehingga kita dapat meminta pertanggungjawaban mereka,” kata Ghosh.