MENU
SEARCH KNOWLEDGE

Tahun 2023 yang Serba AI Diwarnai dengan 'Hallucinate' Sebagai Word of the Year Dictionary.com

 · 
1 min read
 · 
eye 503  
Technology

redcomm

Ketika melihat kembali tahun 2023 dari sudut pandang masa depan yang mungkin sangat nyata, satu hal jelas: AI akan selamanya mengubah cara kita bekerja, belajar, mencipta, berinteraksi dengan informasi, dan merenungkan tentang diri kita sendiri. 

Nah, di tengah euforia perubahan tersebut, Dictionary.com telah menetapkan 'hallucinate' sebagai Word of the Year 2023, dan kamu wajib tahu kenapa!

Kata 'hallucinate' baru saja diperkenalkan ke kamus mereka tahun ini. Jadi, kalau kamu baru dengar, bersiaplah untuk sering-sering ketemu kata ini dan segala konsep di baliknya. 

Seperti AI sendiri, kata 'hallucinate' lagi naik daun banget!

Cerita seru AI di tahun 2023

Ketibaan ChatGPT dari OpenAI akhir tahun lalu membuat gempar bukan hanya kalangan pesaing teknologinya, tapi juga semua orang yang mencoba. 

Kemampuan chatbot membuat para pendidik mikir keras gimana caranya mengajar dan belajar di dunia di mana esai bisa nulis sendiri, kadang dengan tata bahasa yang sempurna, tapi terkadang, seperti yang kita semua cepat sadari, fakta yang jauh dari sempurna. 

Sekarang, tulisan yang dihasilkan AI dan error-nya biasa disebut sebagai 'hallucinations', sudah merambah ke luar batas tulisan mahasiswa, sampai ke berita dan bahkan kasus pengadilan.

AI udah mulai mengisi bahasa kita, termasuk kamus ini, dengan istilah-istilah yang merujuk pada aspek fungsinya, seperti chatbot dan LLM, serta makna baru dari kata-kata seperti 'prompt'. 

'Hallucinate' istimewa banget di antara istilah-istilah yang populerkan AI karena merujuk bukan ke aspek cara AI berfungsi, tapi ke salah satu cara AI bisa ngaco. 

Dalam hal ini, kayak istilah teknologi peringatan lainnya, seperti spam dan virus, yang sekarang jadi bagian dari bahasa kita.

Cara kerja AI chatbots dan kenapa terkadang error 

AI bukan sihir, dan bukan "pikiran". Model bahasa yang digunakan chatbot bekerja dengan memilih kata-kata yang paling mirip dengan teks yang mereka latih, dan itu tidak selalu sama dengan yang benar atau fakta. 

Maka dari itu, cenderung "hallucinate." Saat ini, insinyur dan peneliti AI tidak bisa sekadar melihat permukaannya saja untuk tahu kenapa suatu "hallucination" terjadi. 

Output-nya hasil dari serangkaian operasi kompleks yang berasal dari "pelatihan" AI. Tapi pemahaman kita tentang cara kerja ini kemungkinan bakal berubah drastis dalam beberapa tahun ke depan.

Berdasarkan pemahaman sekarang, banyak peneliti AI dan ahli etika menentang penggunaan 'hallucinate' dalam konteks output AI yang salah, dengan beberapa alasan yang berbeda. 

Mereka mengatakan bahwa menyebut AI 'hallucinate' daripada menghasilkan kesalahan output misalnya, bisa membuat AI terlalu diromantisasi dan mengurangi pemahaman terhadap keterbatasannya.

Hal ini tidak bisa dianggap enteng. Pilih kata-kata dengan bijak, karena 'hallucinate' dan fenomena AI ini adalah bagian dari masa depan yang terus berkembang. 

Kesalahan bisa terjadi, tapi tugas kita adalah terus belajar dan menyesuaikan diri dengan revolusi bahasa dan kecerdasan buatan ini.

SUBSCRIBE NOW

RELATED TOPICS:

DISCOVER MORE OF WHAT MATTERS TO YOU

SUBSCRIBE NEWSLETTER