(SeaPRwire) – Syarikat AI terkemuka di dunia mempunyai tahap pengurusan risiko yang “tidak boleh diterima,” dan “kekurangan komitmen yang ketara terhadap banyak bidang keselamatan,” menurut dua kajian baharu yang diterbitkan pada hari Khamis.
Risiko AI masa kini pun—mengikut pengakuan banyak syarikat terkemuka sendiri—boleh termasuk AI membantu pelaku jahat menjalankan serangan siber atau mencipta senjata bio. Model AI masa depan, yang dibimbangkan oleh saintis terkemuka, boleh terlepas daripada kawalan manusia sama sekali.
Kajian-kajian itu dijalankan oleh organisasi bukan untung SaferAI dan . Setiap satunya adalah , dalam apa yang diharapkan oleh kumpulan-kumpulan itu akan menjadi siri yang berterusan yang memberi insentif kepada syarikat AI terkemuka untuk meningkatkan amalan mereka.
“Kami ingin memudahkan orang ramai untuk melihat siapa yang bukan sahaja bercakap, tetapi juga melaksanakan,” kata Max Tegmark, presiden FLI.
SaferAI protokol pengurusan risiko syarikat AI terkemuka (juga dikenali sebagai dasar penskalaan bertanggungjawab) untuk memberi markah kepada setiap syarikat berdasarkan pendekatan mereka untuk mengenal pasti dan mengurangkan risiko AI.
Tiada syarikat AI yang mendapat markah lebih baik daripada “lemah” dalam penilaian SaferAI terhadap kematangan pengurusan risiko mereka. Pemarkah tertinggi ialah Anthropic (35%), diikuti oleh OpenAI (33%), Meta (22%), dan Google DeepMind (20%). xAI milik Elon Musk mendapat 18%.
Dua syarikat, Anthropic dan Google DeepMind, menerima markah yang lebih rendah daripada kali pertama kajian itu dijalankan, pada Oktober 2024. Hasilnya bermakna OpenAI telah memintas Google sebagai tempat kedua dalam penilaian SaferAI.
Siméon Campos, pengasas SaferAI, berkata Google mendapat markah yang agak rendah walaupun melakukan beberapa penyelidikan keselamatan yang baik, kerana syarikat itu membuat beberapa komitmen kukuh dalam dasarnya. Syarikat itu juga mengeluarkan model perintis awal tahun ini, Gemini 2.5, tanpa berkongsi maklumat keselamatan—dalam apa yang Campos sebut sebagai “kegagalan yang ketara.” Seorang jurucakap Google DeepMind memberitahu TIME: “Kami komited untuk membangunkan AI dengan selamat dan terjamin untuk memberi manfaat kepada masyarakat. Langkah-langkah keselamatan AI merangkumi spektrum potensi mitigasi yang luas. Laporan baru-baru ini tidak mengambil kira semua usaha keselamatan AI Google DeepMind, mahupun semua penanda aras industri. Pendekatan komprehensif kami terhadap keselamatan dan keselamatan AI melangkaui apa yang dirakamkan.”
Markah Anthropic juga menurun sejak SaferAI pada bulan Oktober. Ini sebahagiannya disebabkan oleh perubahan yang dibuat syarikat itu pada beberapa hari sebelum keluaran model Claude 4, yang menyaksikan Anthropic menarik balik komitmennya untuk menangani ancaman orang dalam pada masa ia mengeluarkan model dengan kaliber itu. “Itu adalah proses yang sangat buruk,” kata Campos. Anthropic tidak segera membalas permintaan untuk komen.
Para penulis kajian itu juga mengatakan bahawa metodologinya telah menjadi lebih terperinci sejak Oktober lalu, yang menyumbang kepada beberapa perbezaan dalam pemarkahan.
Syarikat yang paling banyak meningkatkan markah mereka ialah xAI, yang mendapat 18% berbanding 0% pada Oktober; dan Meta, yang mendapat 22% berbanding markah sebelumnya sebanyak 14%.
Kajian FLI lebih luas—melihat bukan sahaja amalan pengurusan risiko, tetapi juga pendekatan syarikat terhadap bahaya semasa, keselamatan eksistensi, tadbir urus dan perkongsian maklumat. Panel yang terdiri daripada enam pakar bebas memberi markah kepada setiap syarikat berdasarkan semakan bahan yang tersedia secara umum seperti dasar, kertas penyelidikan dan laporan berita, bersama-sama dengan data bukan awam tambahan yang diberikan peluang kepada syarikat untuk berikan. Gred tertinggi dijaringkan oleh Anthropic (C plus). OpenAI mendapat C, dan Google mendapat C minus. (xAI dan Meta kedua-duanya mendapat D.)
Walau bagaimanapun, dalam skor FLI untuk pendekatan setiap syarikat terhadap “keselamatan eksistensi,” setiap syarikat mendapat D atau lebih rendah. “Mereka semua berkata: kami ingin membina mesin super pintar yang boleh mengakali manusia dalam setiap cara, dan namun, mereka tidak mempunyai rancangan tentang bagaimana mereka akan mengawal perkara ini,” kata Tegmark.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
“`