Tech

Chatbot Bertenaga AI Dengan Segala Kecanggihan Serta Kesalahannya

Chatbot Bertenaga AI Dengan Segala Kecanggihan Serta Kesalahannya
Teknologi AI yang ada di dalam chatbot tersebut saat ini memang tengah digandrungi banyak orang. (Google Photo)

AKURAT.CO Antara Bard yang merupakan chatbot dari Google dengan Bing yang merupakan chatbot dari Microsoft seolah tengah bertempur di tengah pertarungan yang cukup sengit.

Teknologi AI yang ada di dalam chatbot tersebut saat ini memang tengah digandrungi banyak orang. Banyak pengguna yang mencoba kecanggihan dari segala macam jenis chatbot termasuk Bard dan Bing.

Berbagai macam chatbot tersebut pun digadang-gadang menjadi sebuah terobosan baru dalam ranah teknologi, dan dapat mengancam beberapa profesi yang dilakukan manusia akan tergantikan dengan teknologi kecerdasan buatan tersebut.

baca juga:

Tapi bagaimana jadinya jika Bard dan Bing saling mengutip satu sama lain namun dengan memberikan informasi yang salah? Melansir dari The Verge pada Kamis (23/3/2023), jika pengguna bertanya kepada Bing yang merupakan chatbot Microsoft mengenai apakah chatbot Bard Google telah ditutup, maka Bing akan menjawab ‘Ya’.

Bing pun mengutip sebuah artikel berita yang membahas tweet di mana pengguna bertanya kepada Bard kapan akan ditutup dan Bard mengatakan sudah sendiri mengutip komentar dari Hacker News di mana seseorang bercanda tentang kejadian ini, dan orang lain menggunakan ChatGPT untuk menulis liputan berita palsu tentang acara tersebut.

Chatbot Bertenaga AI dengan Segala Kecanggihan serta Kesalahannya - Foto 1
Bing memberikan informasi yang salah mengutip dari artikel berita tidak benar (The Verge)

Namun, kini Bing telah mengubah jawabannya dengan jawaban yang benar bahwa Bard masih aktif. Pengguna dapat mengartikan ini sebagai pembuktian bahwa sistem ini, setidaknya, dapat diperbaiki atau bahwa mereka sangat mudah ditempa sehingga tidak mungkin bahkan secara konsisten melaporkan kesalahan mereka.

The Verge pun menambahkan bahwa chatbot nyatanya tidak dapat mengukur sumber berita yang dapat diandalkan, salah membaca cerita tentang diri mereka sendiri, dan salah melaporkan kemampuan mereka sendiri. Dalam hal ini, semuanya dimulai karena satu komentar lelucon di Hacker News.

Ini adalah situasi yang menggelikan tetapi dengan konsekuensi yang berpotensi serius. Mengingat ketidakmampuan model bahasa AI untuk memilah fakta dari fiksi dengan andal. Semua karena Microsoft, Google, dan OpenAI telah memutuskan bahwa pangsa pasar lebih penting daripada keamanan.

Perusahaan-perusahaan ini dapat menempatkan penafian sebanyak yang mereka suka di chatbot mereka dengan memberi tahu bahwa itu adalah ‘eksperimen’, ‘kolaborasi’, dan jelas bukan mesin telusur tetapi ini adalah pertahanan yang lemah.

Banyak pengguna yang telah menggunakan sistem ini, dan banyak juga dari mereka yang menyebarkan informasi yang salah, baik mengarang cerita baru yang tidak pernah ditulis atau memberi tahu orang tentang buku yang tidak ada. Dan sekarang, kedua chatbot itu juga mengutip kesalahan satu sama lain. []