(SeaPRwire) – Hari Valentine akhirnya hadir dalam bulan yang akan menjadi perayaan keberhasilan strategi kecerdasan buatan Google yang ambisius. Perusahaan tersebut mengganti nama chatbot miliknya menjadi Gemini dan merilis dua pembaruan produk utama untuk berkompetisi yang lebih baik dengan kompetitor di semua lini dalam perlombaan AI berisiko tinggi. Di sela-sela semua itu, pengguna dapat menghasilkan gambar realistis dari orang-orang juga.
Tidak banyak yang melihat fitur tersebut pada awalnya. Perusahaan lain seperti OpenAI menyediakan alat yang memungkinkan pengguna membuat gambar orang dengan cepat yang kemudian dapat digunakan untuk pemasaran, seni, dan membuka ide-ide kreatif. Seperti produk AI lainnya, generator gambar ini berisiko memproyeksikan bias berdasarkan data yang dimasukkan dalam proses pengembangan. Minta gambar perawat dan beberapa layanan AI mungkin akan menampilkan wanita; minta gambar kepala eksekutif dan Anda biasanya akan melihat seorang pria.
Dalam kurun waktu beberapa minggu setelah peluncuran fitur tersebut, pengguna memperhatikan masalah yang berbeda. Mulai 20 Feb dan berlanjut hingga akhir minggu, pengguna di X membanjiri platform media sosial dengan contoh-contoh Gemini yang refrain dari menampilkan orang kulit putih — bahkan dalam situasi historis di mana mereka tampak mendominasi penggambaran, seperti saat pengguna meminta gambar pendiri atau tentara Jerman dari tahun 1943. Tidak lama kemudian, tokoh masyarakat dan outlet berita dengan banyak penonton sayap kanan mengklaim, dengan bukti meragukan, bahwa uji coba Gemini membuktikan Google memiliki agenda tersembunyi terhadap orang kulit putih.
Elon Musk, pemilik X, bergabung dalam keributan tersebut, menanggapi puluhan posting tentang kecurigaan yang tidak berdasar, termasuk beberapa yang menunjuk pada pimpinan Google sebagai biang keladi kebijakan tersebut. Pada hari Kamis, Google menangguhkan generasi gambar orang dengan Gemini. Keesokan harinya, wakil presiden senior Google Prabhakar Raghavan yang mencoba menjelaskan keputusan perusahaan, tetapi tidak menjelaskan secara mendalam mengapa fitur tersebut tersendat.
Peluncuran produk Google yang tidak dilengkapi dengan baik untuk menangani permintaan gambar historis menunjukkan tantangan unik yang dihadapi perusahaan teknologi dalam mencegah sistem AI-nya memperbesar bias dan informasi yang salah — terutama mengingat tekanan kompetitif untuk membawa produk AI ke pasar dengan cepat. Alih-alih menahan diri untuk tidak merilis generator gambar yang cacat, Google mencoba solusi darurat.
Ketika Google meluncurkan alat tersebut, alat tersebut menyertakan perbaikan teknis untuk mengurangi bias dalam keluarannya, menurut dua orang yang mengetahui masalah tersebut, yang meminta untuk tidak disebutkan namanya dalam mendiskusikan informasi pribadi. Tetapi Google melakukannya tanpa mengantisipasi sepenuhnya semua cara yang mungkin menyebabkan alat tersebut salah digunakan, kata orang-orang tersebut, dan tanpa transparan mengenai pendekatannya.
Koreksi berlebihan yang dilakukan Google untuk bias terkenal AI terhadap orang kulit berwarna membuatnya rentan terhadap kehebohan besar lainnya mengenai keragaman. Raksasa teknologi tersebut selama bertahun-tahun menghadapi kritik karena menampilkan gambar orang kulit hitam secara keliru saat pengguna mencari “gorila” di aplikasi fotonya, serta pertempuran publik yang berlarut-larut mengenai apakah ia bertindak secara tepat dalam mengusir para pemimpin tim AI etisnya.
Dengan bertindak begitu cepat untuk menghentikan alat ini, tanpa menjelaskan secara memadai mengapa sistem merespons seperti itu, para karyawan Google dan lainnya di Silicon Valley kini khawatir bahwa tindakan perusahaan akan menimbulkan efek yang mematikan. Mereka mengatakan hal ini dapat mencegah seseorang bekerja pada pertanyaan AI dan bias — masalah penting bagi bidang ini.
“Industri teknologi secara keseluruhan, dengan Google berada di posisi terdepan, sekali lagi telah menempatkan diri mereka dalam masalah besar yang mereka buat sendiri,” kata Laura Edelson, asisten profesor di Northeastern University yang telah mempelajari sistem AI dan aliran informasi di jaringan daring yang luas . “Industri sangat membutuhkan AI untuk digambarkan sebagai keajaiban, dan bukan ,” katanya, merujuk pada metafora populer yang menggambarkan bagaimana sistem AI meniru bahasa manusia melalui pencocokan pola statistik, tanpa pemahaman atau pemahaman yang sebenarnya. “Tetapi itulah yang mereka miliki.”
“Gemini dibangun sebagai alat kreativitas dan produktivitas, dan mungkin tidak selalu akurat atau dapat diandalkan,” kata juru bicara Google dalam sebuah pernyataan. “Kami terus mengatasi dengan cepat kasus-kasus di mana produk tidak merespons secara tepat.”
Dalam email kepada staf pada Selasa sore, Kepala Eksekutif Google Sundar Pichai mengatakan para karyawan telah “bekerja sepanjang waktu” untuk memperbaiki masalah yang ditandai pengguna dengan tanggapan Gemini, menambahkan bahwa perusahaan telah mendaftar “peningkatan substansial pada berbagai perintah.
“Saya tahu bahwa beberapa tanggapannya telah menyinggung pengguna kami dan menunjukkan bias – perlu dijelaskan, itu sama sekali tidak dapat diterima dan kami salah,” tulis Pichai dalam memo tersebut, yang pertama kali dilaporkan oleh Semafor. “Tidak ada AI yang sempurna, terutama pada tahap awal pengembangan industri ini, tetapi kami tahu standar yang tinggi bagi kami dan kami akan terus berusaha selama yang dibutuhkan. Dan kami akan meninjau apa yang terjadi dan memastikan kami memperbaikinya dalam skala besar. “
Karyawan Google yang bekerja di bidang AI etis berjuang dengan moral yang rendah dan perasaan tidak berdaya selama setahun terakhir karena perusahaan mempercepat laju peluncuran produk AI untuk bersaing dengan pesaing seperti OpenAI. Sementara penyertaan orang kulit berwarna dalam gambar Gemini menunjukkan pertimbangan keragaman, itu menunjukkan bahwa perusahaan telah gagal untuk sepenuhnya memikirkan konteks berbeda di mana pengguna mungkin berusaha membuat gambar, kata Margaret Mitchell, mantan kepala bersama grup penelitian AI Etis Google dan ilmuwan Kepala Etika di AI startup Hugging Face. Pertimbangan keragaman yang berbeda mungkin sesuai ketika pengguna mencari gambar tentang bagaimana mereka merasa dunia seharusnya, bukan bagaimana dunia itu sebenarnya pada saat tertentu dalam sejarah.
“Fakta bahwa Google memperhatikan keragaman warna kulit merupakan kemajuan pesat dari Google empat tahun lalu. Jadi ini seperti, dua langkah maju, satu langkah mundur,” kata Mitchell. “Mereka harus diakui karena benar-benar memperhatikan hal ini. Hanya saja, mereka perlu melangkah lebih jauh untuk melakukannya dengan benar.”
Masalah gambar Google
Bagi Google, yang memelopori beberapa teknik di jantung ledakan AI saat ini, telah lama ada tekanan besar untuk menghasilkan pembuatan gambar dengan benar. Google sangat khawatir tentang bagaimana orang akan menggunakan Imagen, model pembuatan gambar AI miliknya, sehingga menolak merilis fitur tersebut ke publik untuk waktu yang lama setelah .
Selama bertahun-tahun, tim di perusahaan tersebut berdebat bagaimana memastikan bahwa alat AI-nya akan bertanggung jawab dalam menghasilkan gambar orang yang realistis, kata dua orang yang mengetahui masalah tersebut, yang meminta untuk tidak diidentifikasi dalam menyampaikan diskusi internal. Pada satu titik, jika karyawan bereksperimen secara internal dengan Imagen Google meminta program menghasilkan gambar seseorang — atau bahkan gambar yang secara implisit memasukkan orang, seperti stadion sepak bola — ia akan merespons dengan kotak hitam, menurut satu orang. Google memasukkan kemampuan menghasilkan gambar orang di Gemini hanya setelah melakukan beberapa tinjauan, kata orang lain.
Google tidak melakukan pengujian tentang semua cara yang mungkin menyebabkan fitur tersebut menghasilkan hasil yang tidak terduga, kata seseorang, tetapi dianggap cukup baik untuk versi pertama alat generasi gambar Gemini yang tersedia secara luas untuk publik. Meskipun tim Google telah bertindak hati-hati dalam membuat alat tersebut, ada pendapat luas secara internal bahwa perusahaan tidak siap untuk kegagalan semacam ini, kata mereka.
Saat pengguna di X menyebarkan gambar penggambaran ahistoris Gemini tentang orang-orang, forum karyawan internal Google dibanjiri dengan posting tentang kekurangan model, menurut seorang karyawan saat ini. Di Memegen, forum internal tempat karyawan berbagi meme untuk mengolok-olok perusahaan, satu postingan populer menampilkan gambar pembawa acara TV Anderson Cooper menutupi wajahnya dengan tangan.
“Ini tamparan keras di wajah,” kata karyawan itu. “Ada perasaan bahwa ini jelas belum siap untuk waktu tayang utama… bahwa perusahaan sebenarnya mencoba mengejar ketertinggalan.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
, dan yang lainnya membuat pembatas pada produk AI mereka dan sering melakukan pengujian yang merugikan —