(SeaPRwire) – Awal bulan ini, Google melancarkan sistem yang dinantikan lama “Gemini”, memberi pengguna akses ke teknologi generasi imej AI syarikat itu buat kali pertama. Walaupun kebanyakan pengguna awal bersetuju bahawa sistem itu menakjubkan, mencipta imej terperinci untuk arahan teks dalam masa beberapa saat, pengguna segera mendapati ia sukar untuk mendapatkan sistem itu untuk menjana imej orang kulit putih, dan segera tweet viral memaparkan contoh yang membingungkan seperti .
Sesetengah orang menyalahkan Gemini kerana menjadi “terlalu bangun”, menggunakan Gemini sebagai senjata terkini dalam peperangan kebudayaan yang meningkat tentang kepentingan mengakui kesan diskriminasi sejarah. Ramai berkata ia mencerminkan malaise di dalam Google, dan sesetengah bidang “etika AI” sebagai malu.
Idea bahawa kerja etika AI bertanggungjawab adalah salah. Sebenarnya, Gemini menunjukkan Google pelajaran etika AI. Di mana etika AI memberi tumpuan kepada menangani kes penggunaan yang dapat diramalkan– seperti gambaran sejarah–Gemini kelihatan telah memilih pendekatan “saiz semua”, yang menghasilkan campuran canggung yang menggalakkan dan memalukan.
Saya sepatutnya tahu. Saya telah bekerja pada etika dalam AI di dalam syarikat teknologi selama lebih 10 tahun, menjadikan saya salah seorang pakar senior terbaik di dunia dalam perkara ini (ia adalah bidang muda!). Saya juga mengasaskan dan memimpin pasukan “Etika AI” Google, sebelum mereka memecat saya dan ketua bersama selepas laporan kami memberi amaran tentang isu-isu tepat ini untuk generasi bahasa. Ramai yang mengkritik Google atas keputusan mereka, percaya ia mencerminkan diskriminasi sistemik dan keutamaan kelajuan yang ceroboh daripada strategi yang dipertimbangkan dengan baik dalam AI. Adalah mungkin saya sangat setuju.
Debacle Gemini sekali lagi membongkar strategi Google yang tidak mahir dalam bidang di mana saya unik berkebolehan untuk membantu, dan yang saya kini boleh bantu orang ramai memahaminya secara umum. Artikel ini akan membincangkan beberapa cara di mana syarikat AI boleh berbuat lebih baik kali selanjutnya, mengelakkan memberikan bahan yang tidak membantu kepada pihak kanan dalam peperangan kebudayaan, dan memastikan bahawa AI memberi manfaat kepada sebanyak mungkin orang di masa hadapan.
Salah satu bahagian penting dalam mewujudkan etika dalam AI adalah untuk menyatakan penggunaan yang dapat diramalkan, termasuk penggunaan jahat dan salah guna. Ini bermakna menjawab soalan seperti Sekali model yang sedang difikirkan kami dikerahkan, bagaimana orang akan menggunakannya? Dan bagaimana kami boleh merekabentuknya untuk menjadi seberapa bermanfaat dalam konteks ini? Pendekatan ini mengakui kepentingan pusat “konteks penggunaan” apabila mencipta sistem AI. Jenis pemikiran jauh dan konteks yang berakar umbi pada interaksi masyarakat dan teknologi ini lebih sukar bagi sesetengah orang daripada yang lain–ini adalah di mana orang dengan kepakaran dalam interaksi manusia-komputer, sains sosial, dan sains kognitif khususnya berkemahiran (berbicara tentang kepentingan kedisiplinan dalam perekrutan teknologi). Peranan ini tidak diberi kuasa dan pengaruh setara dengan peranan kejuruteraan, dan tekaan saya ialah ini benar dalam kes Gemini: mereka yang paling mahir dalam menyatakan penggunaan yang dapat diramalkan tidak diberi kuasa, membawa kepada sistem yang tidak dapat menangani pelbagai jenis penggunaan yang sesuai, seperti gambaran kumpulan secara bersejarah putih.
Perkara pergi salah apabila organisasi merawat semua kes penggunaan sebagai satu kes penggunaan, atau tidak memodelkan kes penggunaan sama sekali. Oleh itu, tanpa analisis beretika terhadap kes penggunaan dalam konteks yang berbeza, sistem AI mungkin tidak mempunyai model “di bawah bonet” yang membantu mengenal pasti apa yang dicari pengguna (dan sama ada ia patut dijana). Untuk Gemini, ini boleh melibatkan menentukan sama ada pengguna sedang mencari imej yang bersejarah atau pelbagai, dan sama ada permintaan mereka adalah kabur atau jahat. Kita baru-baru ini melihat kegagalan yang sama untuk membina model yang kukuh untuk penggunaan yang dapat diramalkan membawa kepada .
Untuk membantu, saya bertahun-tahun lalu membuat carta berikut. Tugasnya adalah untuk mengisi sel; Saya telah mengisi beberapa contoh berkaitan dengan Gemini khusus hari ini.
Sel hijau (baris atas) adalah yang di mana AI bermanfaat paling mungkin (bukan di mana AI akan sentiasa bermanfaat). Sel merah (baris tengah) adalah yang di mana AI membahayakan paling mungkin (tetapi juga di mana inovasi bermanfaat yang tidak diramalkan mungkin berlaku). Baki sel lebih cenderung untuk mempunyai keputusan bercampur – sesetengah hasil baik, sesetengah buruk.
Langkah seterusnya melibatkan penyelesaian yang mungkin berlaku dalam konteks yang berbeza, menangani kesilapan yang tidak seimbang untuk subkumpulan tertentu tertakluk kepada diskriminasi. Pasukan pembangun Gemini kelihatan telah mendapat bahagian ini sebahagian besarnya betul. Pasukan kelihatan mempunyai pemikiran jauh untuk mengenal pasti risiko mewakili orang kulit putih secara berlebihan dalam situasi neutral atau positif, yang akan memperkuat pandangan dominan putih dunia yang tidak sesuai. Dan jadi, ada kemungkinan submodul dalam Gemini direka untuk menunjukkan kulit gelap kepada pengguna.
Fakta bahawa langkah-langkah ini jelas dalam Gemini, tetapi bukan langkah-langkah melibatkan penggunaan yang dapat diramalkan, mungkin disebabkan sebahagiannya oleh kesedaran awam yang meningkat tentang bias dalam sistem AI: bias pro-putih adalah malapetaka PR yang mudah diramalkan, meniru , manakala pendekatan halus untuk menangani “konteks penggunaan” tidak. Kesannya adalah sistem yang “meleset” daripada menjadi inklusif terhadap kes penggunaan yang sesuai yang dapat diramalkan.
Titik tinggi ialah ia mungkin mempunyai teknologi yang memberi manfaat kepada pengguna dan mengurangkan kerosakan kepada mereka yang paling berkemungkinan terjejas secara negatif. Tetapi anda perlu mempunyai orang yang baik dalam melakukan ini dimasukkan dalam keputusan pembangunan dan pelaksanaan. Dan orang-orang ini sering tidak berkuasa (atau lebih buruk) dalam teknologi. Ia tidak perlu menjadi cara ini: Kita boleh mempunyai laluan AI yang berbeza yang memberi kuasa kepada orang yang betul untuk apa yang mereka paling layak untuk membantu. Di mana pandangan pelbagai dicari, bukan ditolak. Untuk sampai di sana memerlukan beberapa kerja kasar dan bulu yang berdiri. Kita akan tahu kita berada di jalan yang baik apabila kita mula melihat eksekutif teknologi yang setara pelbagai dengan imej Gemini menjana.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.