Model AI Generatif telah menjadi sangat baik dalam berkomunikasi dengan kami dan mencipta imej, video dan muzik untuk kami, tetapi mereka tidak begitu mahir dalam hal itu. tidak perkara untuk kita.
Ejen AI berjanji untuk mengubahnya. Anggap mereka sebagai model AI dengan skrip dan matlamat. Mereka biasanya datang dalam salah satu daripada dua perisa.
Yang pertama, dipanggil ejen berasaskan alat, boleh dilatih untuk menggunakan bahasa manusia semula jadi (bukan pengekodan) untuk melaksanakan tugas digital untuk kita. Pada bulan Oktober, Anthropic mengeluarkan satu ejen sedemikian—yang pertama daripada pembuat model AI utama—yang boleh menterjemah arahan (“Isi borang ini untuk saya”) ke dalam tindakan pada komputer seseorang, menggerakkan kursor untuk membuka penyemak imbas web, bergerak untuk mencari data pada halaman yang berkaitan dan mengisi borang menggunakan data ini. Salesforce juga telah mengeluarkan ejennya sendiri, dan OpenAI dilaporkan merancang untuk mengeluarkannya pada bulan Januari.
Jenis ejen lain dipanggil ejen pemodelan, dan anda boleh menganggapnya sebagai model kecerdasan buatan yang direka untuk tingkah laku manusia. Orang pertama yang berusaha mencipta ejen ini ialah saintis sosial. Mereka mahu menjalankan kajian yang mahal, tidak praktikal atau tidak beretika menggunakan orang sebenar, jadi sebaliknya mereka menggunakan AI untuk mensimulasikan subjek. Trend ini telah dipercepat terutamanya sejak penerbitan 2023 kertas kerja yang sering disebut oleh Joon Sung Park, calon PhD di Stanford, dan rakan sekerja bertajuk “Ejen Generatif: Simulakra Interaktif Kelakuan Manusia.”
Minggu lalu, Park dan pasukannya menerbitkan makalah baharu mengenai arXiv yang dipanggil “Pemodelan Berasaskan Agen Generatif 1000 Orang.” Dalam kerja ini, para penyelidik meminta 1,000 orang untuk mengambil bahagian dalam temu bual selama dua jam dengan AI. Tidak lama selepas itu, pasukan itu dapat mencipta ejen simulasi yang menghasilkan semula nilai dan keutamaan setiap peserta dengan ketepatan yang menakjubkan.
Terdapat dua peristiwa penting di sini. Pertama, jelas bahawa syarikat AI terkemuka percaya bahawa membina alat AI generatif yang hebat tidak lagi mencukupi; kini mereka perlu mencipta ejen yang boleh melakukan sesuatu untuk orang ramai. Kedua, semakin mudah untuk mendapatkan ejen AI ini untuk meniru tingkah laku, sikap dan personaliti orang sebenar. Apa yang pernah menjadi dua jenis ejen yang berbeza—ejen simulasi dan ejen berasaskan alat—tidak lama lagi boleh menjadi satu: model kecerdasan buatan yang bukan sahaja boleh meniru keperibadian anda, tetapi juga bertindak bagi pihak anda.
Penyelidikan mengenai perkara ini sedang dijalankan. Syarikat seperti Tavus bekerja keras untuk membantu pengguna mencipta “kembar digital” diri mereka sendiri. Tetapi Ketua Pegawai Eksekutif syarikat itu Hasan Raza merancang untuk pergi lebih jauh dan mewujudkan ejen kecerdasan buatan yang boleh berbentuk ahli terapi, doktor dan guru.
Jika alat sedemikian menjadi murah dan mudah untuk dibuat, ini akan menimbulkan banyak isu etika baharu, tetapi dua menonjol. Pertama, ejen ini boleh mencipta deepfake yang lebih peribadi dan lebih berbahaya. Alat penjanaan imej telah pun memudahkan untuk mencipta pornografi tanpa persetujuan menggunakan satu imej seseorang, tetapi krisis ini hanya akan bertambah teruk jika mudah untuk meniru suara, pilihan dan personaliti seseorang. (Pak memberitahu saya bahawa dia dan pasukannya menghabiskan lebih daripada setahun bergelut dengan isu etika yang sama dalam projek penyelidikan terbaru mereka, mengambil bahagian dalam banyak perbualan dengan lembaga etika Stanford dan membangunkan peraturan tentang cara peserta boleh menarik balik data dan sumbangan mereka.)
Yang kedua ialah soalan asas: adakah kita layak untuk mengetahui sama ada kita bercakap dengan ejen atau seseorang. Jika anda menemu bual AI dan menghantar sampel suara anda untuk mencipta ejen yang berbunyi dan bertindak balas seperti anda, adakah rakan atau rakan sekerja anda mempunyai hak untuk mengetahui apabila mereka bercakap dengannya dan bukan anda? Sebaliknya, jika anda menghubungi pembekal telefon bimbit anda atau pejabat doktor anda dan ejen perkhidmatan pelanggan yang ceria menjawab telefon, adakah anda mempunyai hak untuk mengetahui sama ada anda bercakap dengan kecerdasan buatan?
Masa depan ini kelihatan jauh, tetapi tidak. Ada kemungkinan apabila kita tiba di sana, kita perlu bertanya lebih banyak soalan etika yang lebih mendesak dan berkaitan. Sementara itu, baca artikel saya tentang ejen AI di sini dan fikirkan sejauh mana anda fikir penemuduga AI boleh mengetahuinya awak dalam masa dua jam.
Pembelajaran yang lebih mendalam
Di dalam cita-cita Clear untuk menguruskan identiti anda di luar lapangan terbang
Clear ialah syarikat biometrik yang paling terkenal di dunia, dan anda mungkin telah berinteraksi dengan mereka semasa melalui pusat pemeriksaan keselamatan di lapangan terbang dan stadium, atau mengesahkan identiti anda di LinkedIn. Sepanjang perjalanan, syarikat itu telah membina salah satu repositori peribadi terbesar data identiti di planet ini, termasuk imbasan cap jari, iris dan muka. Pertemuan faktor sedang mempercepatkan penggunaan teknologi pengesahan identiti (termasuk, sudah tentu, kecerdasan buatan), serta kesan berlarutan daripada dorongan wabak ke arah pengalaman “tanpa sentuhan”, dan Clear bertujuan untuk menjadi penyedia perkhidmatan ini di mana-mana. . Dalam masa terdekat, dalam banyak situasi di mana anda mungkin memerlukan ID atau kad kredit, anda hanya perlu menunjukkan wajah anda.
Mengapa ini penting: Sekarang biometrik telah menjadi arus perdana, apakah dan siapa yang menanggung kosnya? Kerana kemudahan ini, walaupun hanya sebahagian daripada kita yang memilihnya, memaksa kita semua bergelut dengan akibatnya. Jika Clear berjaya dalam visinya, ia akan membawa kami ke dunia di mana kami semakin terpaksa menyerahkan data biometrik kami kepada sistem yang terdedah kepada pelanggaran data. Baca lebih lanjut daripada Eileen Guo.
Bit dan bait
Di dalam industri pimping AI yang berkembang pesat
Instagram dibanjiri dengan ratusan pengaruh yang dijana AI yang mencuri video daripada model sebenar dan pencipta kandungan dewasa, memberi mereka wajah yang dijana AI dan mengewangkan badan mereka dengan pautan ke tapak janji temu, Patreon, pesaing OnlyFans dan pelbagai aplikasi AI . (404 Media)
Cara Melindungi Seni Anda daripada AI
Terdapat sedikit yang boleh anda lakukan jika kerja anda sudah disertakan dalam set data, tetapi anda boleh mengambil langkah untuk menghalang kerja tersebut daripada digunakan pada masa hadapan. Berikut adalah empat cara untuk melakukannya. (Semakan Teknologi MIT)
Elon Musk dan Vivek Ramaswami bercakap secara terperinci tentang rancangan mereka untuk mengurangkan peraturan
Dalam artikel mereka, pasangan itu menekankan bahawa matlamat mereka adalah untuk segera menggunakan perintah eksekutif untuk membatalkan peraturan yang dikeluarkan oleh agensi persekutuan menggunakan “sepasukan kecil tentera salib kerajaan kecil.” Ini bermakna garis panduan AI yang dikeluarkan oleh agensi persekutuan di bawah pentadbiran Biden, seperti peraturan etika Institut Standard dan Teknologi Kebangsaan atau prinsip Memorandum Keselamatan Negara mengenai AI, boleh dibatalkan atau dibatalkan sepenuhnya. (Wall Street Journal)
Cara OpenAI menguji modelnya
OpenAI memberi kami cerapan tentang cara ia memilih orang untuk diuji dan cara ia berfungsi untuk mengautomasikan proses ujian, pada asasnya menjadikan model bahasa besar menyerang satu sama lain. (Semakan Teknologi MIT)