(SeaPRwire) – Hanya 16 bulan telah berlalu, tetapi pelancaran ChatGPT pada November 2022 terasa sudah seperti sejarah AI purba. Berbilion-bilion dolar, kedua-dua awam dan swasta, mengalir ke dalam AI. Beribu-ribu produk berasaskan AI telah dicipta, termasuk yang baru ini minggu. Semua orang dari pelajar hingga saintis kini menggunakan model bahasa besar ini. Dunia kita, dan khususnya dunia AI, sudah pasti berubah.
Tetapi hadiah sebenar AI tahap manusia – atau superintelligens – masih belum dicapai. Terobosan sedemikian bermakna AI yang boleh melakukan kebanyakan kerja ekonomi yang paling produktif, berinteraksi dengan orang lain, melakukan sains, membina dan mengekalkan rangkaian sosial, menjalankan politik, dan melaksanakan peperangan moden. Kekangan utama untuk semua tugas ini hari ini adalah kognitif. Menyingkirkan kekangan ini akan mengubah dunia. Walau bagaimanapun, ramai di makmal AI terkemuka di seluruh dunia meramalkan teknologi ini boleh menjadi realiti sebelum akhir dekad ini.
Ini boleh menjadi manfaat yang besar bagi manusia. Tetapi AI juga boleh menjadi sangat berbahaya, terutamanya jika kita tidak dapat mengawalnya. AI tidak dikawal boleh menembusi sistem dalam talian yang menguasai banyak dunia, dan menggunakannya untuk mencapai matlamatnya. Ia boleh mendapatkan akses ke akaun media sosial kita dan mencipta manipulasi yang diukur khusus untuk bilangan besar orang. Lebih buruk lagi, anggota tentera yang bertanggungjawab terhadap senjata nuklear boleh dipengaruhi oleh AI untuk berkongsi butiran pengenalan mereka, menimbulkan ancaman besar kepada kemanusiaan.
Ini akan menjadi langkah membina jika kita dapat membuatnya setulah sukar bagi apa-apa ini berlaku dengan memperkukuh pertahanan dunia terhadap pelaku dalam talian yang merugikan. Tetapi apabila AI boleh meyakinkan manusia, yang lebih baik daripada kita, tiada pertahanan yang diketahui.
Untuk sebab-sebab ini, banyak penyelidik keselamatan AI di makmal seperti OpenAI, Google DeepMind dan Anthropic, dan di pertubuhan bukan untung yang berorientasikan keselamatan, telah menyerah kalah dalam cubaan untuk menghadkan tindakan AI masa depan. Mereka kini memberi tumpuan kepada “selari” atau AI yang selamat secara semula jadi. AI selari mungkin cukup kuat untuk dapat memusnahkan kemanusiaan, tetapi ia tidak sepatutnya mahu melakukannya.
Terdapat tanda soalan besar tentang AI selari. Pertama, bahagian teknikal selarian merupakan masalah sains yang belum terselesaikan. Baru-baru ini, sesetengah penyelidik terbaik yang bekerja untuk menyelaraskan AI supermanusia meninggalkan pekerjaan mereka dengan tidak puas hati, satu langkah yang tidak memberi keyakinan. Kedua, tidak jelas apa yang akan diseragamkan oleh AI supercerdas. Jika ia adalah sistem nilai akademik, seperti utilitarianisme, kita mungkin akan segera mendapati bahawa kebanyakan nilai manusia sebenarnya tidak sepadan dengan nilai-nilai ini, di mana AI yang tidak dapat dihentikan boleh terus bertindak terhadap kehendak kebanyakan orang selamanya. Jika selarian adalah kepada niat sebenar orang, kita memerlukan cara untuk menggabungkan niat yang sangat berbeza ini. Walaupun penyelesaian idealistik seperti majlis PBB atau penyelarasan berasaskan AI adalah dalam lingkungan kemungkinan, terdapat kebimbangan bahawa kuasa mutlak superintelligens akan dikumpulkan di tangan sangat sedikit ahli politik atau CEO. Ini tentu sahaja akan tidak dapat diterima bagi – dan ancaman terus kepada – semua manusia lain.
Membubarkan bom masa
Jika kita tidak dapat menemui cara untuk mengekalkan keselamatan manusia dari kepupusan, dan lebih baik lagi dari dystopia selarian, AI yang boleh menjadi tidak dikawal tidak boleh dicipta pada mulanya. Penyelesaian ini, menangguhkan AI tahap manusia atau supercerdas, selama kita belum menyelesaikan kebimbangan keselamatan, mempunyai kelemahan bahawa janji-janji besar AI – daripada menyembuhkan penyakit hingga mencipta pertumbuhan ekonomi besar-besaran – perlu ditangguhkan.
Ide ini mungkin kedengaran radikal bagi sesetengah orang, tetapi ia akan perlu jika AI terus berkembang tanpa kita mencapai rancangan selarian yang memuaskan. Apabila keupayaan AI mencapai tahap hampir mengambil alih, satu-satunya pilihan realistik adalah makmal-makmal secara tegas dikehendaki oleh kerajaan untuk menangguhkan pembangunan. Bertindak sebaliknya akan bersifat bunuh diri.
Dan menangguhkan AI mungkin tidak setulah sukar sebagaimana yang dikatakan oleh sesetengah orang. Pada masa ini, hanya beberapa syarikat besar sahaja mempunyai cara untuk melaksanakan latihan terkemuka, yang bermakna penguatkuasaan penangguhan terhad terutamanya terhad kepada kehendak politik, sekurang-kurangnya dalam jangka pendek. Dalam jangka panjang bagaimanapun, peningkatan perkakasan dan algoritma bermakna penangguhan mungkin dilihat sukar untuk dikuatkuasakan. Penguatkuasaan antara negara diperlukan, contohnya dengan perjanjian, begitu juga penguatkuasaan di dalam negara, dengan langkah seperti kawalan perkakasan yang ketat.
Sementara itu, saintis perlu memahami risiko dengan lebih baik. Walaupun terdapat , tiada konsensus wujud lagi. Saintis harus merumuskan titik persetujuan mereka, dan menunjukkan di mana dan mengapa pandangan mereka berbeza, dalam , yang harus berkembang menjadi “Panel Antara Kerajaan mengenai Risiko AI”. Jurnal saintifik terkemuka harus lebih terbuka lagi kepada penyelidikan risiko eksistensial, walaupun ia kedengaran spekulatif. Masa depan tidak menyediakan titik data, tetapi memandang ke hadapan adalah setara penting untuk AI sebagaimana ia adalah untuk perubahan iklim.
Bagi pihak kerajaan pula, mereka memainkan peranan yang amat besar dalam bagaimana AI berkembang. Ini bermula dengan mengakui secara rasmi risiko eksistensial AI, seperti yang telah dilakukan oleh ., ., dan ., dan menubuhkan . Kerajaan juga harus merangka rancangan bagaimana untuk berbuat dalam skenario paling penting yang boleh difikirkan, serta bagaimana untuk menangani isu-isu bukan eksistensial AGI yang banyak seperti pengangguran massa, ketidaksamaan yang melarikan diri, dan penggunaan tenaga. Kerajaan harus membuat strategi AGI mereka tersedia secara awam, membolehkan penilaian saintifik, industri dan awam.
Ia merupakan kemajuan besar bahawa negara-negara utama AI kini sedang membincangkan dasar bersama secara membina di puncak keselamatan AI dua tahunan, termasuk salah satunya dari 21 hingga 22 Mei. Proses ini bagaimanapun perlu dijaga dan diperluaskan. Bekerja ke arah kebenaran bersama mengenai risiko eksistensial AI dan menyuarakan kebimbangan bersama dengan semua 28 negara yang dijemput sudah pasti merupakan kemajuan besar dalam arah ini. Di luar itu, langkah mudah yang perlu dipersetujui seperti pembuatan rejim pelesenan, penilaian model, menjejak perkakasan AI, meningkatkan tanggungjawab undang-undang bagi makmal AI, dan mengecualikan kandungan hakcipta dari latihan. Satu pengawas perlu ditubuhkan untuk mengawal pelaksanaan.
Ia sememangnya sukar untuk meramalkan kemajuan sains. Walau bagaimanapun, AI supermanusia pasti akan memberi kesan lebih besar kepada tamadun kita daripada apa-apa lagi pada abad ini. Sekadar menunggu masa bom meletup bukanlah strategi yang boleh diterima. Mari kita gunakan masa yang ada sebaik mungkin.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.