Penyokong AI sumber terbuka memetik manfaat pendekatan yang dibawa kepada kehidupan digital kami: Perisian sumber terbuka mempercepatkan inovasi, kod menjadi lebih mudah disesuaikan dan lebih tahan terhadap serangan, dan lebih ramai orang mendapat manfaat daripada keupayaan perisian. Penyokong sumber terbuka percaya prinsip yang sama ini harus diteruskan ke AI, mendemokrasikan pembangunannya. Mereka berpendapat bahawa kita harus tahu bagaimana sistem AI generatif sedang dibina dan cara ia berfungsi, dan bahawa ketelusan ini boleh membawa kepada kepercayaan yang lebih besar dalam AI kerana ia menjadi rakan kongsi dalam bidang perubatan, penyelidikan saintifik, seni kreatif dan banyak lagi aktiviti manusia. .
Model sumber terbuka menjadikan seni bina asasnya terbuka, membenarkan pemeriksaan, pengubahsuaian dan konfigurasi semula. Sebaliknya, model tertutup mengekalkan seni bina, data latihan dan kaedah mereka peribadi. Akses kepada model ini adalah terhad, memberikan pembangun kawalan yang lebih besar ke atas penggunaannya dan mencegah kemungkinan penyalahgunaan. Ia juga penting untuk membezakan antara tahap keterbukaan yang berbeza. Sebagai contoh, model berat terbuka mewakili jalan tengah dengan mengeluarkan parameter terlatih terakhir (berat), memberikan sedikit gambaran tentang kerja dalaman model. Walau bagaimanapun, butiran penting seperti data latihan dan kaedah kekal tersembunyi, mengehadkan jumlah ketelusan dan menyukarkan mereka selain pembangun model untuk memahami atau menghasilkan semula gelagat model sepenuhnya.
Penyokong AI yang lebih tertutup berpendapat bahawa AI ialah teknologi istimewa dalam kedua-dua kuasa kebolehan analisisnya dan skala potensi kesannya. Jika model AI sempadan yang benar-benar maju harus menjadi sumber terbuka, ia boleh meletakkan terlalu banyak potensi bahaya di tangan seseorang yang memilih untuk mengubah suainya untuk tujuan jahat. Penyokong ini berhujah bahawa memastikan AI tertutup—atau, lebih khusus lagi, tidak menjadikan model atau berat model boleh diakses oleh orang ramai—menyediakan persekitaran yang lebih baik untuk membetulkan bias dalam data, membantu memastikan integriti output dan inferens model, dan perlindungan. model daripada dikonfigurasikan semula oleh pelakon jahat. Daripada perspektif ini, adalah tidak bertanggungjawab untuk membiarkan model bahasa besar (LLM) boleh diakses tanpa akauntabiliti atau pengehadan pada penggunaan dan penggunaannya. Terdapat penyokong yang bersemangat dan komited yang memikirkan pendekatan terbaik untuk sejauh mana AI seharusnya terbuka.
Lawrence Lessig ialah seorang profesor undang-undang di Universiti Harvard dan seorang peguam bela sumber terbuka lama yang menyelitkan nuansa ke dalam perdebatan yang sering kelihatan terlalu binari. “Saya telah mengadakan pertukaran baru-baru ini dengan seseorang yang meragui idea tentang sebarang risiko, kerana dalam kata-kata mereka, mereka tidak melihat risiko Terminator,” kata Lessig. “Tetapi ia tidak mengambil masa yang lama untuk membawanya ke tempat di mana dia sebenarnya melihat bahawa terdapat banyak lagi [to worry about] sebelum kita sampai ke soalan Terminator.” Pada pandangan Lessig, bahaya AI bukan terletak pada masa depan yang dibayangkan oleh superintelligence yang melarikan diri, tetapi di sini dan sekarang, apabila kita perlu mencegah perkara seperti palsu, kempen maklumat salah, dan imejan intim bukan konsensual, serta penyalahgunaan oleh kumpulan pengganas dan pelakon negara yang bermusuhan.
Dalam perbualan dengan pembuat dasar, Lessig telah mengesan salah tanggapan tentang cara AI dibina: “Kebanyakan orang mempunyai pemahaman yang kasar tentang teknologi ini, dan mereka menganggap pembangun hanya boleh menulis baris dalam kod yang mengatakan, Jangan lakukan perkara yang tidak baik.” Beliau menekankan bagaimana latihan AI adalah tugas yang kompleks. “Anda tidak hanya memberitahu AI untuk berkelakuan baik, jadi ia adalah satu perkara yang sangat rumit untuk memikirkan cara kami memastikan teknologi itu selamat.” Penyelidik sedang berusaha keras untuk menyelesaikan masalah yang diterangkan oleh Lessig: Bagaimanakah kita menyesuaikan model AI dengan nilai manusia, dan bagaimana kita memahami keputusan yang dibuat oleh model tersebut?
Satu penyelesaian yang mungkin dicadangkan oleh Lessig ialah model dua peringkat di mana sistem AI yang paling berkuasa ditutup, tetapi elemen eksperimen sumber terbuka dibenarkan. “Terdapat garis di bawah yang kita patut menggalakkan sumber terbuka, kerana ia adalah enjin kesaksamaan yang luar biasa di seluruh dunia,” katanya. “Tetapi ada tahap di mana ia menjadi berpotensi berbahaya. Saya fikir ia mendorong kita untuk berfikir dengan cara yang lebih besar tentang infrastruktur yang boleh kita kawal. Jadi komitmen kepada sumber terbuka mungkin merupakan komitmen untuk mencari cara berbeza untuk mengawal keselamatan, bukan dengan mengawal model, tetapi dengan mengawal persekitaran di mana model dijalankan. Jika infrastruktur itu wujud, saya fikir kebebasan untuk sumber terbuka boleh diperluaskan kepada model AI yang lebih berkuasa.” Sesetengah organisasi, seperti MLCommons, Forum Model Frontier dan Perkongsian bukan untung mengenai AI, sudah pun mengusahakan usaha keselamatan ekosistem AI.
Kebimbangan mengenai sumber terbuka hanya bertambah besar apabila model menjadi lebih berkebolehan, dengan tetingkap konteks panjang, ingatan, perancangan dan penggunaan alat yang membolehkan tingkah laku “agentik”, iaitu keupayaan model AI untuk melaksanakan arahan dalam dunia nyata— untuk kebaikan atau keburukan. Aktiviti pemantauan pada model tertutup mungkin mengehadkan jenis penyalahgunaan yang mungkin berlaku.
Perspektif lain datang daripada Percy Liang, seorang profesor bersekutu sains komputer di Universiti Stanford, yang juga mencari cara terbaik untuk meneruskan AI secara bertanggungjawab dan secara amnya merupakan penyokong pendekatan sumber terbuka. Dalam peranannya sebagai pengarah Pusat Penyelidikan Model Asas, Liang membimbing sekumpulan sarjana yang mengkaji penggunaan dan pembangunan model AI utama. Salah satu matlamat asasnya, jelasnya, adalah untuk memperhalusi naratif sekitar perbualan sumber terbuka. Adalah berguna untuk melihat AI sebagai sebahagian daripada perkembangan penggunaan umum, teknologi asas. “Kami tidak marah tentang orang yang menggunakan e-mel,” kata Liang, “yang, di tangan pelakon yang berniat jahat, orang boleh [use to] menjana banyak spam dan maklumat yang salah.” Beliau memetik kod komputer itu sendiri sebagai satu lagi teknologi yang boleh dianggap “sangat berbahaya” kerana ia digunakan untuk mencipta virus dan serangan siber—selagi tidak, anda tahu, melakukan kerja menyokong proses asas masyarakat moden. Perdebatan serupa tentang membolehkan teknologi berkuasa berbanding melindungi orang ramai berpusing di sekitar penyulitan pada tahun 90-an. Kerajaan mahukan akses kepada komunikasi yang disulitkan untuk melindungi keselamatan negara, manakala libertarian awam berhujah bahawa individu mempunyai hak untuk melindungi privasi mereka. “Akhirnya,” kata Liang, “ia telah diputuskan bahawa kami akan hidup dalam dunia di mana penyulitan tersedia untuk semua orang.”
Liang menggunakan metafora Legos untuk menunjukkan perbezaan antara model terbuka dan tertutup. Model AI tertutup adalah seperti membeli mainan dari kedai dan bermain dengannya; model AI berat terbuka adalah seperti mempunyai koleksi Lego dan menggabungkan ciptaan tersuai. Apabila diminta untuk memetik manfaat ketara pendekatan terbuka, Liang menerangkan bagaimana model terbuka telah mengubah analisis data dalam banyak aspek penyelidikan saintifik: “Anda boleh melakukan perkara yang anda tidak boleh lakukan sebelum ini.”
Apabila bercakap tentang senario seperti Terminator yang membuat orang takut, Liang menasihati “tidak berlari dan membuat kesimpulan” dan menggalakkan orang ramai untuk menggunakan pandangan yang lebih terukur tentang kesan yang mungkin berlaku. Kertas tajuk utama yang diterbitkan oleh penyelidik di MIT pada 2023 melihat sama ada LLM boleh membantu membina senjata biologi atau tidak. Kesimpulan kertas itu adalah suram: “Keputusan kami mencadangkan bahawa melepaskan berat masa depan, model asas yang lebih berkebolehan, tidak kira betapa teguhnya dilindungi, akan mencetuskan percambahan keupayaan yang mencukupi untuk memperoleh ejen pandemik dan senjata biologi lain.” Menulis sebagai tindak balas kepada kajian itu, Liang dan rakan-rakannya menyifatkan kajian itu sebagai “kisah peringatan” tentang “apa yang boleh menjadi salah apabila analisis risiko model asas terbuka tidak dibandingkan dengan risiko daripada model tertutup atau teknologi sedia ada (seperti web). cari di internet). Kajian seterusnya mencadangkan bahawa maklumat yang diperoleh pada bioweapons melalui tahap LLM semasa pada ketika itu adalah setara dengan apa yang seseorang boleh temui melalui carian web tradisional.
Liang membayangkan masa depan di mana AI terjalin dalam kehidupan seharian kita dan institusi masyarakat kita. Dalam senario ini, penghapusan lengkap teknologi kelihatan tidak praktikal dan sukar untuk dilaksanakan. Beliau mencadangkan rangka kerja di mana kami secara bertanggungjawab menilai “risiko marginal” AI sumber terbuka dan kemudian mencipta penyelesaian kolektif apabila risiko itu dianggap terlalu tinggi. “Malangnya, belum ada kajian yang teliti tentang penilaian risiko,” kata Liang. “Apa yang penting di sini ialah risiko kecil untuk mengeluarkan model terbuka berbanding, dengan baik, hanya menggunakan Google atau Wikipedia.”
Sebahagian daripada menilai risiko model AI ialah melihat potensi pertahanan model itu terhadap penyalahgunaan. Liang mengemukakan contoh menggunakan AI untuk menggodam pangkalan data sensitif, seperti maklumat kad kredit. Pada masa ini, AI sudah pasti boleh membantu dalam aktiviti haram ini, tetapi AI juga sangat membantu dalam mempertahankan daripada serangan ini, dalam mencari kelemahan keselamatan dan menambalnya. Dengan cara ini, model terbuka boleh mengukuhkan keselamatannya sendiri. Tetapi dalam bidang lain, seperti maklumat yang salah dan imejan intim bukan konsensual, keupayaan AI nampaknya mengatasi pertahanan kita, Liang mengingatkan. Ini adalah bidang di mana syarikat dan kerajaan mesti mengambil bahagian dengan dasar yang tersusun dengan baik dan penyelesaian yang berkesan.
Seperti banyak aspek kecerdasan buatan, persoalan sumber terbuka adalah tindakan mengimbangi. Adakah faedah sumber terbuka untuk penyelidikan saintifik begitu positif sehingga kita menerima potensi bahaya maklumat yang salah? “Saya benar-benar berpendapat bahawa kita memerlukan dasar yang baik dan kita perlu memahami akibatnya,” kata Liang, “tetapi saya fikir banyak kebimbangan keselamatan AI agak terlalu bercerai dari realiti, dan mereka tidak mengambil keseluruhan sistem kira.” Lessig, bagi pihaknya, membincangkan kemungkinan perpecahan awam-swasta. “AI ialah teknologi yang sangat berharga untuk dunia,” katanya. “Saya fikir kita sepatutnya mempunyai sejenis kes seperti Projek Genom Manusia untuk membinanya dengan cara yang melindungi cita-cita AI awam serta cita-cita AI peribadi.”
Kita semua mahukan AI yang beretika, boleh dipercayai dan selamat serta membantu dengan keputusan penting tentang kesihatan dan iklim kita. Kami mahukan AI yang boleh mempercepatkan penemuan saintifik. Matlamat ini memerlukan rangka kerja yang rasional untuk menilai kesan masyarakat model AI. Pada masa ini, kedua-dua model terbuka dan tertutup AI sedang bergerak ke hadapan dengan pantas. Adalah penting untuk menganggap AI sebagai sejajar dengan kepentingan awam—sebuah teknologi yang akan mempengaruhi semua aspek pengalaman kita, yang masa depan bergantung pada kerjasama kerajaan, perniagaan swasta dan warga yang terlibat.