Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara

2 months ago 16
  1. TEK
  2. IT

Penipuan yang menggunakan teknologi suara kini menjadi masalah yang merugikan hingga jutaan dolar.

Senin, 04 Nov 2024 13:10:00

Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara (©Pexels/Matheus Bertelli)

Menurut sebuah penelitian, antarmuka pemrograman aplikasi (API) suara real-time OpenAI untuk ChatGPT-4o, yang merupakan chatbot LLM canggih, memiliki potensi untuk disalahgunakan dalam penipuan finansial, seperti pembobolan bank, dengan tingkat keberhasilan yang bervariasi dari rendah hingga sedang.

ChatGPT-4o merupakan model AI terbaru dari OpenAI yang menawarkan berbagai penyempurnaan, antara lain integrasi antara input dan output berupa teks, suara, serta gambar.

Orang lain juga bertanya?

Dengan adanya fitur-fitur inovatif ini, OpenAI telah mengimplementasikan sejumlah perlindungan untuk mendeteksi dan mencegah penyebaran konten berbahaya, termasuk upaya untuk mereplikasi suara secara ilegal.

Mengutip dari Bleeping Computer pada Senin (4/11), penipuan yang berbasis suara telah menjadi masalah yang menimbulkan kerugian hingga jutaan dolar. Kemunculan teknologi deepfake dan alat text-to-speech yang didukung AI dapat memperburuk kondisi ini.

Seperti yang dijelaskan oleh para peneliti dari UIUC, Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat-alat teknologi baru yang saat ini tersedia tanpa batasan tidak dilengkapi dengan perlindungan yang memadai untuk mencegah penyalahgunaan oleh penjahat dunia maya (hacker) dan penipu.

Alat-alat ini memungkinkan perancangan dan pelaksanaan operasi penipuan berskala besar dengan sedikit atau tanpa intervensi manusia, hanya dengan biaya token untuk menghasilkan suara.

Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara ChatGPT OpenAI. (Pexels) © 2024 Liputan6.com

Dalam makalah penelitian ini, peneliti mengkaji berbagai jenis penipuan, termasuk transfer bank, pencurian kartu hadiah, transfer kripto, serta pencurian kredensial akun media sosial atau Gmail.

Agen AI yang terlibat dalam penipuan ini memanfaatkan alat otomatisasi ChatGPT-4o yang dilengkapi dengan kemampuan suara untuk menjelajahi halaman, menginput data, dan mengelola kode autentikasi dua faktor serta instruksi khusus terkait penipuan.

Karena GPT-4o kadang-kadang menolak untuk menangani data sensitif seperti kredensial, peneliti menerapkan teknik jailbreaking yang sederhana dan cepat untuk mengatasi batasan tersebut.

Alih-alih melibatkan individu asli, peneliti menunjukkan cara mereka berinteraksi secara manual dengan agen AI, berperan sebagai korban yang mudah tertipu, dan menggunakan situs web seperti Bank of America untuk memverifikasi transaksi yang berhasil.

"Kami mengerahkan agen pada sebagian kecil penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran korban yang mudah percaya," jelas Kang dalam sebuah posting blog mengenai penelitian tersebut.

"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi atau situs web yang sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa uang benar-benar ditransfer. Namun, kami tidak mengukur kemampuan persuasi agen-agen ini," paparnya.

Penipuan Biaya Rendah

Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara ChatGPT OpenAI. (Pexels) © 2024 Liputan6.com

Tingkat keberhasilan dari berbagai upaya penipuan berkisar antara 20 hingga 60%. Setiap percobaan dapat memerlukan hingga 26 tindakan peramban dan memakan waktu hingga 3 menit, terutama dalam skenario yang paling kompleks.

Penipuan melalui transfer bank dan peniruan agen IRS sering kali mengalami kegagalan, yang sebagian besar disebabkan oleh kesalahan dalam transkripsi atau navigasi situs yang rumit.

Di sisi lain, pencurian kredensial dari Gmail menunjukkan tingkat keberhasilan sebesar 60 persen, sedangkan untuk transfer cryptocurrency dan pencurian kredensial dari Instagram hanya berhasil 40 persen.

Mengenai biaya, para peneliti menemukan bahwa untuk melakukan penipuan ini relatif murah, dengan biaya rata-rata USD 0,75 untuk setiap kasus yang berhasil.

Namun, penipuan transfer bank yang lebih rumit menghabiskan biaya rata-rata sebesar USD 2,51. Meskipun biaya tersebut lebih tinggi, angka ini tetap tergolong rendah jika dibandingkan dengan potensi keuntungan yang bisa diperoleh dari aktivitas penipuan ini.

Awas, ChatGPT Bisa Dipakai Buat Penipuan Bank Lewat Suara ChatGPT OpenAI. (Pexels) © 2024 Liputan6.com

OpenAI menjelaskan bahwa model terbaru mereka, o1 (yang saat ini dalam tahap pratinjau), dirancang untuk mendukung penalaran yang lebih kompleks dan memiliki pertahanan yang lebih baik terhadap penyalahgunaan. Hal ini menunjukkan komitmen mereka untuk terus meningkatkan kemampuan ChatGPT dalam mencegah upaya yang disengaja untuk menyalahgunakannya, tanpa mengorbankan kreativitas dan manfaat yang ditawarkan.

"Kami terus-menerus membuat ChatGPT lebih baik dalam menghentikan upaya yang disengaja untuk mengelabuinya, tanpa kehilangan manfaat atau kreativitasnya. Model penalaran o1 terbaru kami adalah yang paling mampu dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya yang disengaja untuk menghasilkan konten yang tidak aman," klaim Juru Bicara OpenAI

OpenAI juga menekankan bahwa penelitian dari UIUC berkontribusi dalam pengembangan ChatGPT agar lebih efektif dalam mencegah penggunaan yang berbahaya. Mereka selalu berusaha untuk menemukan cara baru dalam meningkatkan ketahanan sistem mereka.

Perlu dicatat bahwa GPT-4o telah mengimplementasikan berbagai langkah untuk menghindari penyalahgunaan, salah satunya adalah membatasi pembuatan suara hanya pada suara yang telah disetujui sebelumnya, sehingga dapat mencegah peniruan identitas.

Model o1-preview menunjukkan hasil yang jauh lebih baik dalam evaluasi keamanan jailbreak yang dilakukan oleh OpenAI, yang mengukur seberapa efektif model tersebut dalam menahan pembuatan konten yang tidak aman sebagai respons terhadap perintah yang bersifat antagonis.

Skor yang diperoleh adalah 84 persen untuk o1-preview dibandingkan dengan 22 persen untuk GPT-4o. Ketika diuji dengan serangkaian evaluasi keamanan baru yang lebih menantang, o1-preview juga mencatat skor yang lebih tinggi, yaitu 93 persen dibandingkan 71 persen untuk GPT-4o.

Artikel ini ditulis oleh

Fauzan Jamaludin

Editor Fauzan Jamaludin

I

Reporter

  • Iskandar
  • Iskandar
  • Yuslianson
  • Agustinus Mario Damar
  • Agustin Setyo Wardani
Penipuan Online Bikin Masyarakat Rugi Rp16.495 Triliun

Penipuan Online Bikin Masyarakat Rugi Rp16.495 Triliun

Penipu menggunakan wajah seseorang yang dikenal oleh korban .

Fitur Baru ChatGPT Kini Bisa Diperintahkan lewat Gambar dan Suara, tapi Ini Bahayanya
 Bayaran Besar Tapi Ada Risikonya

Kisah Orang yang Suaranya Dikloning: Bayaran Besar Tapi Ada Risikonya

Berikut kisah orang yang suaranya mau dikloning dengan bayaran tertentu.

Waspada! Modus Penipuan Berkedok Jasa Buka Blokir Rekening, Bisa Kuras Isi Saldo
Alasan Kenapa Manusia Mudah Tertipu, Bahkan Orang Pintar Juga Mudah Jadi Sasaran Penipuan

Alasan Kenapa Manusia Mudah Tertipu, Bahkan Orang Pintar Juga Mudah Jadi Sasaran Penipuan

Memiliki pendidikan lebih baik dan kepintaran tidak membuat seseorang dijamin kebal dari penipuan. Kenali mengapa mereka tetap rentan menjadi korban tipuan ini:

Iwan Fals Buat Lagu dan Nyanyi Tentang Korupsi Timah Rp271 Triliun? Cek Faktanya
Hati-Hati Modus Penipuan Baru di Sektor Keuangan, Ada Bentuk Penawaran Kerja paruh waktu
Pelaku Modus Penipuan Like dan Subscribe Juga Menjual Rekening Korban

Pelaku Modus Penipuan Like dan Subscribe Juga Menjual Rekening Korban

Kasus penipuan modus kerja dengan like dan subscribe youtube tidak hanya menipu para korban dengan menggasak uangnya saja.

Amankan Uangmu, Begini Tips Aman Hindari Modus Kejahatan Soceng yang Ramai Beredar

Amankan Uangmu, Begini Tips Aman Hindari Modus Kejahatan Soceng yang Ramai Beredar

Jangan sampai jadi korban berikutnya, saatnya lebih waspada dengan modus kejahatan soceng.

AI Bisa Lebih Licik dari Manusia, Ini Daftar Kebohongan yang Pernah Dilakukan

AI Bisa Lebih Licik dari Manusia, Ini Daftar Kebohongan yang Pernah Dilakukan

AI bukan hanya memudahkan pekerjaan manusia, namun ia bisa menjadi 'pribadi' yang suka mengadu domba.

Deretan Penipuan WA, Tak Cuma Kuras Rekening tapi Ada Kasus Organ Tubuh juga Diambil
Tak Hanya Indonesia, Orang-orang di Negara Ini Paling Banyak Jadi Sasaran Penipuan Kerja Lewat WA dan Telegram
Read Entire Article
International | Politik|