Lab penelitian AI Meta telah menciptakan chatbot baru yang canggih dan memungkinkan anggota masyarakat berbicara ke sistem itu untuk mengumpulkan umpan balik tentang kemampuannya.
Bot tersebut bernama BlenderBot 3 dan dapat diakses di web, meskipun saat ini tampaknya hanya penduduk di AS yang dapat melakukannya.
BlenderBot 3 dapat terlibat dalam obrolan umum, kata Meta, tetapi juga menjawab jenis pertanyaan yang mungkin Anda tanyakan kepada asisten digital, “dari berbicara tentang kesehatan resep makanan hingga menemukan fasilitas ramah anak di kota.” Bot itu adalah prototipe dan dibangun di atas pekerjaan Meta sebelumnya dengan apa yang dikenal sebagai model bahasa besar atau LLMS — perangkat lunak pembuat teks yang kuat tetapi cacat di mana OpenAI’s GPT-3 adalah contoh yang paling dikenal luas.
Seperti semua LLM, BlenderBot awalnya dilatih pada kumpulan data teks yang sangat besar, yang ditambang untuk pola statistik untuk menghasilkan bahasa.
Sistem seperti itu terbukti sangat fleksibel dan telah digunakan untuk berbagai kegunaan, mulai dari menghasilkan kode untuk pemrogram hingga membantu penulis menulis buku terlaris berikutnya.
Namun, model-model ini juga memiliki kelemahan serius: mereka memuntahkan bias dalam data pelatihan mereka dan sering menemukan jawaban atas pertanyaan pengguna.
Masalah terakhir ini adalah sesuatu yang secara khusus ingin diuji Meta dengan BlenderBot.
Fitur besar dari chatbot itu adalah ia mampu mencari di internet untuk membicarakan topik tertentu.
Lebih penting lagi, pengguna kemudian dapat mengklik tanggapannya untuk melihat dari mana ia mendapatkan informasinya.
BlenderBot 3, dengan kata lain, dapat mengutip sumbernya.
Dengan merilis chatbot ke masyarakat umum, Meta ingin mengumpulkan umpan balik tentang berbagai masalah yang dihadapi model bahasa besar.
Pengguna yang mengobrol dengan BlenderBot akan dapat menandai respons yang mencurigakan dari sistem, dan Meta mengatakan telah bekerja keras untuk “meminimalkan penggunaan bot untuk bahasa vulgar, cercaan, dan komentar yang tidak sensitif secara budaya.” Pengguna harus memilih untuk mengumpulkan data mereka, dan jika demikian, percakapan dan umpan balik mereka akan disimpan dan kemudian diterbitkan oleh Meta untuk digunakan oleh komunitas riset AI umum.
“Kami berkomitmen untuk merilis secara publik semua data yang kami kumpulkan dalam demo dengan harapan kami dapat meningkatkan AI percakapan,” Kurt Shuster, seorang insinyur riset di Meta yang membantu membuat BlenderBot 3, mengatakan kepada The Verge.
Merilis prototipe chatbot AI ke publik, secara historis, merupakan langkah berisiko bagi perusahaan teknologi.
Pada tahun 2016, Microsoft merilis chatbot bernama Tay di Twitter yang belajar dari interaksinya dengan publik.
Agak bisa ditebak, pengguna Twitter segera melatih Tay untuk memuntahkan berbagai pernyataan rasis, antisemit, dan misoginis.
Sebagai tanggapan, Microsoft menarik bot offline kurang dari 24 jam kemudian.
Meta mengatakan dunia AI telah banyak berubah sejak kerusakan Tay dan bahwa BlenderBot memiliki segala macam rel pengaman yang seharusnya menghentikan Meta dari mengulangi kesalahan Microsoft.
Yang terpenting, kata Mary Williamson, manajer teknik penelitian di Facebook AI Research (FAIR), sementara Tay dirancang untuk belajar secara real time dari interaksi pengguna, BlenderBot adalah model statis.
Itu berarti ia mampu mengingat apa yang dikatakan pengguna dalam percakapan (dan bahkan akan menyimpan informasi ini melalui cookie browser jika pengguna keluar dari program dan kembali lagi nanti), tetapi data ini hanya akan digunakan untuk meningkatkan sistem lebih lanjut.
“Ini hanya pendapat pribadi saya, tetapi episode [Tay] itu relatif disayangkan, karena itu menciptakan musim dingin chatbot ini di mana setiap institusi takut mengeluarkan chatbot publik untuk penelitian,” kata Williamson kepada The Verge.
THE VERGE