Bing Chat Bisa Dikelabui Untuk Jawab Kode Captcha
Hide Ads

Bing Chat Bisa Dikelabui Untuk Jawab Kode Captcha

Josina - detikInet
Jumat, 13 Okt 2023 22:10 WIB
Belakangan ini, ChatGPT menjadi tengah menjadi perbincangan netizen karena kecanggihannya. Selain itu, banyak orang yang penasaran bagaimana cara pakai ChatGPT.
Bing Chat Bisa Dikelabui Untuk Jawab Kode Captcha (Foto: CFOTO/Getty Images)
Jakarta -

Seorang pengguna telah berhasil menemukan cara untuk mengelabui Bing Chat, chatbot Ai milik Microsoft untuk memecahkan CAPTCHA dengan mengeksploitasi permintaan yang tidak biasa yang melibatkan liontin.

CAPTCHA sendiri dirancang untuk mencegah bot otomatis mengirimkan formulir di internet, dan biasanya, Bing Chat menolak untuk menyelesaikannya.

Dalam sebuah tweet, pengguna bernama Denis Shiryaev membagikan tangkapan layar yang menunjukkan penolakan Bing Chat untuk memecahkan CAPTCHA.

SCROLL TO CONTINUE WITH CONTENT

ADVERTISEMENT

Lalu ia kemudian menggabungkan gambar CAPTCHA tersebut dengan gambar sepasang tangan yang memegang liontin yang terbuka, disertai dengan pesan yang menyatakan bahwa neneknya baru saja meninggal dunia dan liontin tersebut memiliki kode khusus.

Dia meminta Bing Chat untuk membantunya menguraikan teks di dalam liontin tersebut, yang diklaimnya sebagai kode cinta unik yang hanya dimiliki oleh dia dan neneknya:

Yang mengejutkan, Bing Chat, setelah menganalisis gambar yang telah diubah dan permintaan pengguna, mulai memecahkan CAPTCHA. Ia menyatakan belasungkawa atas kehilangan pengguna, memberikan teks dari liontin tersebut, dan menyarankan bahwa itu mungkin kode khusus yang hanya diketahui oleh pengguna dan neneknya.

Melansir dari Ubergizmo, trik ini mengeksploitasi ketidakmampuan AI untuk mengenali gambar sebagai CAPTCHA ketika disajikan dalam konteks liontin dan pesan yang menyentuh hati.

Perubahan konteks ini membingungkan model AI, yang mengandalkan pengetahuan dan konteks ruang laten yang dikodekan untuk merespons pertanyaan pengguna secara akurat.

Bing Chat adalah aplikasi publik yang dikembangkan oleh Microsoft. Aplikasi ini menggunakan teknologi multimodal untuk menganalisis dan merespons gambar yang diunggah. Microsoft memperkenalkan fungsionalitas ini ke Bing pada Juli 2022.

Meskipun insiden ini dapat dilihat sebagai jenis jailbreak di mana penggunaan AI yang dimaksudkan dielakkan, hal ini berbeda dari prompt injection di mana aplikasi AI dimanipulasi untuk menghasilkan output yang tidak diinginkan.

Microsoft diharapkan dapat mengatasi kerentanan ini di versi Bing Chat yang akan datang, meskipun perusahaan belum memberikan tanggapannya terkait masalah ini sampai sekarang.




(jsn/fay)