(SeaPRwire) – Pada awal tahun ini, Bad Bunny secara tegas menolak khabar angin bahawa beliau akan segera melancarkan lagu baru bersama Justin Bieber. “Itu palsu,” katanya kepada TIME dalam temubual untuk profil mengenai kenaikan meteornya. “Anda tidak akan tahu apa yang saya akan lakukan.”
Tetapi pada bulan lepas, lagu yang menampilkan bunyi suara mereka berdua mula tersebar di TikTok, mendapat . Bad Bunny tidak berbohong dalam temubual itu: lagu itu dicipta dengan teknologi AI. Seorang artis bernama FlowGPT telah menggunakan teknologi AI untuk mencipta semula suara Bad Bunny, Bieber dan Daddy Yankee dalam anthem reggaeton. Bad Bunny sendiri membenci lagu itu, memanggilnya “lagu sialan” dalam bahasa Sepanyol dan menggalakkan peminatnya daripada mendengarnya, dan klip itu dipadamkan dari TikTok. Tetapi ramai peminat ketiga bintang gergasi itu juga menyukainya.
Lagu dan tindak balas berbelah bagi terhadapnya adalah lambang bagaimana AI telah menyerbu industri muzik dengan cara yang penuh kontroversi. Dalam tempoh dua tahun kebelakangan ini, pembangunan pembelajaran mesin telah membolehkan sesiapa duduk di rumah mereka untuk menghasilkan bunyi idola muzik mereka. Seorang artis, Ghostwriter, menjadi viral kerana meniru suara Drake dan The Weeknd; pencipta lain secara bercanda menetapkan suara Frank Sinatra yang berkarat kepada lirik kasar . Alat AI lain telah membolehkan pengguna mencipta lagu hanya dengan mengetikkan input, yang secara kesannya adalah versi audio alat teks kepada imej seperti DALL-E.
Sesetengah penyokong menghujahkan bahawa pembangunan ini akan menambah baik demokratisasi muzik, membolehkan sesiapa dengan idea untuk mencipta muzik dari bilik tidur mereka. Tetapi sesetengah artis bertindak balas dengan marah bahawa sesuatu yang begitu peribadi seperti suara atau gaya muzik mereka boleh ditiru dan dikomersilkan untuk keuntungan orang lain. Perdebatan antara melindungi artis, memajukan inovasi, dan menentukan peranan yang sepadan untuk manusia dan mesin dalam penciptaan muzik akan diterokai selama bertahun-tahun akan datang.
“Jika berlaku letupan besar dalam muzik yang dicipta pada skala dan kelajuan yang tidak terhingga, adakah ini akan mengembalikan kita untuk memikirkan apa yang sebenarnya kita bawa ke meja sebagai manusia?,” tanya , seorang pemuzik dan ahli teknologi AI. “Di manakah imaginasi wujud dalam ini? Bagaimana kita membawa watak kepada ciptaan kita sendiri?”
AI sudah digunakan oleh penerbit muzik untuk bahagian-bahagian yang lebih mundur dalam pekerjaan mereka. AI boleh membantu membetulkan nada vokal dan membenarkan jurutera untuk menyunting banyak lebih cepat dan murah. The Beatles baru-baru ini menggunakan AI untuk mengasingkan suara John Lennon dari demo 1978, menyingkirkan alat-alat dan bunyi latar lain untuk membina . AI juga terbina dalam banyak pengalaman mendengar orang ramai: platform streaming seperti dan Apple Music bergantung kepada algoritma AI untuk mencadangkan lagu kepada orang berdasarkan kebiasaan mendengar mereka.
Kemudian ada penciptaan muzik sebenar menggunakan AI, yang telah memicu kedua-dua keghairahan dan peringatan. Pemuzik telah memeluk alat muzik seperti BandLab, yang mencadangkan gelung muzik unik berdasarkan input sebagai laluan keluar untuk kepenatan penulis. Aplikasi AI Endel menjana runut bunyi yang diselaraskan secara berterusan berdasarkan keutamaan dan data biometrik orang untuk memberi fokus, melegakan atau tidur. Alat AI lain mencipta rakaman penuh berdasarkan input teks. Alat YouTube baru membenarkan pengguna mengetik sesuatu seperti “Balada tentang bagaimana lawan menarik, akustik ceria,” dan potongan lagu dinyanyikan oleh Charlie Puth-soundalike segera dijana.
Teknologi ini menimbulkan pelbagai kebimbangan. Jika AI boleh mencipta “lagu Charlie Puth” secara serta-merta, apakah maksudnya untuk Charlie Puth sendiri, atau semua pemuzik lain yang berbakat yang takut mereka digantikan? Adakah syarikat AI dibenarkan melatih model bahasa besar mereka pada lagu tanpa keizinan penciptanya? AIs sudah digunakan untuk menyeru suara orang mati: filem biopik baru, misalnya, akan termasuk versi suara AI yang disusun semula daripada suaranya. Bagaimana pemahaman kita tentang ingatan dan warisan akan berubah jika sebarang suara sepanjang sejarah boleh dihidupkan semula?
Bahkan mereka yang paling bersemangat tentang teknologi menjadi cemas. Bulan lepas, Edward Newton-Rex, naib presiden audio di syarikat AI Stability AI, dari syarikat itu, dengan alasan bahawa beliau takut bahawa beliau mungkin telah menyumbang ke arah meletakkan pemuzik keluar kerja. “Syarikat bernilai berbilion dolar, tanpa keizinan, melatih model generatif AI pada karya pencipta, yang kemudian digunakan untuk mencipta kandungan baru yang dalam banyak kes boleh bersaing dengan karya asal,” tulisnya dalam surat terbuka.
Soalan-soalan ini kemungkinan besar akan diputuskan di mahkamah dalam tahun-tahun akan datang. Pada bulan Oktober, Universal Music Group dan label-label besar lain startup Anthropic selepas model AI-nya Claude 2 mula mengeluarkan lirik berhak cipta secara verbatim. Eksekutif Sony Music memberitahu Kongres bahawa syarikat itu telah untuk deepfake suara yang tidak dibenarkan. Dan banyak artis mahu keluar sepenuhnya: Dolly Parton baru-baru ini memanggil klon suara AI “menakutkan”. Syarikat AI, sebaliknya, menghujahkan bahawa penggunaan mereka terhadap lagu berhak cipta jatuh di bawah “penggunaan adil,” dan lebih menyerupai penghormatan, parodi atau lagu cover.
Penyanyi-penulis lagu adalah antara artis yang cuba mendahului perubahan seismik ini. Pada 2021, beliau mencipta deepfake suara sendiri bernama Holly+, membenarkan sesiapa mengubah suara mereka ke suaranya. Tujuan projek itu bukanlah untuk memaksa artis lain juga menyerahkan suara mereka, tetapi untuk menggalakkan mereka juga mengambil peranan proaktif dalam perbualan yang lebih besar ini, dan mendakwa autonomi dalam industri muzik yang dipimpin atas di mana syarikat teknologi memainkan peranan yang semakin besar. “Saya fikir ini adalah peluang besar untuk merangka semula apa peranan artis itu,” katanya kepada TIME. “Ada cara untuk masih mempunyai sesetengah agensi ke atas versi digital diri anda sendiri, tetapi lebih bermain-main dan kurang memberi hukuman.”
Pemuzik Dromgoole, yang mengasaskan syarikat AI Bronze, berharap agar muzik AI akan berkembang daripada fasa semasanya meniru suara penyanyi dan segera menjana muzik. Dalam beberapa tahun kebelakangan ini, Bronze telah bekerja dengan pemuzik seperti Disclosure dan Jai Paul untuk mencipta versi AI Disclosure dan Jai Paul yang sentiasa berubah, yang tidak pernah kedengaran sama apabila dimainkan semula dua kali. Tujuannya bukanlah menggunakan AI untuk mencipta lagu statik yang sempurna dan boleh dipasarkan – tetapi untuk menggunakannya untuk mencabar konsep kami tentang apa yang muzik boleh jadi. “Ia kelihatan seolah-olah industri teknologi berfikir bahawa semua orang mahu pintasan, atau penyelesaian untuk kreativiti,” katanya. “Itu bukan cara imaginasi bekerja. Sesiapa yang telah mempelajari keadaan aliran atau menghabiskan masa dengan orang yang sedang mencipta muzik tahu bahawa kami suka proses itu.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.