Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


AI membuatnya lebih mudah dari sebelumnya Buat konten Dan penipu memanfaatkannya. Laporan hari Kamis dari perusahaan keamanan McAfee menemukan bahwa banyak orang Amerika (72%) telah melihat dukungan selebriti atau influencer palsu. Di antara selebritas yang nama, gambar, dan kemiripannya dieksploitasi dalam penipuan online, Taylor Swift adalah yang paling sering digunakan.
Setelah Swift, selebritas lain yang kemiripannya paling sering digunakan dalam penipuan online adalah Scarlett Johansson, Jenna Ortega, dan Sydney Sweeney. Sebagian besar dari 10 besar adalah ikon atau musisi budaya pop, termasuk Sabrina Carpenter, Kim Kardashian, dan Zendaya. Satu-satunya politisi dalam daftar adalah Perwakilan AS Alexandria Ocasio-Cortez. Khususnya, hanya dua pria: Tom Cruise dan LeBron James.
Jangan lewatkan konten teknologi kami yang tidak memihak dan ulasan berbasis laboratorium Tambahkan CNET Sebagai sumber Google pilihan.
Studi ini berfokus pada penipuan online berbasis produk yang dihadapi konsumen, seperti kripto palsu yang mengklaim disetujui oleh AOC. Data ini tidak mengukur tingkat deepfake yang dibuat, itulah sebabnya tokoh penting lainnya, seperti Presiden Donald Trump, tidak masuk dalam 10 besar. Jenis penipu internet ini mengandalkan orang-orang yang berinteraksi dengan konten mereka, baik itu mengklik tautan palsu, mengajukan permohonan hadiah palsu, atau membeli produk palsu. Jadi, sayangnya, masuk akal jika mereka mengandalkan nama besar seperti Swift untuk menarik perhatian kita. Misalnya, ketika Swift mengumumkan pertunangannya dengan Travis Kelce, penipu pun tercipta Mengiklankan barang dagangan palsu Berdasarkan usulan Kells. Selebriti dan influencer telah lama dieksploitasi dengan cara ini, namun AI memberikan dorongan yang tidak menguntungkan bagi pelaku kejahatan.
Alat AI generatif seperti generator gambar, video, dan audio menawarkan jalan baru bagi pelaku kejahatan. Mereka dapat mengkloning kemiripan selebriti untuk menciptakan dukungan palsu, hadiah, atau promosi produk palsu. Yang perlu dilakukan penipu hanyalah membuat postingan media sosial yang cukup kredibel. Dan hal ini berhasil, McAfee melaporkan bahwa 39% orang mengklik salah satu dari dukungan palsu ini dan 10% mempertaruhkan informasi pribadi mereka dan kehilangan rata-rata ratusan dolar ($525).
Perusahaan AI yang membangun model AI ini memiliki sistem untuk mencegah penipu atau siapa pun membuat konten AI selebriti tanpa persetujuan mereka. Namun kita telah sering melihat bagaimana sistem ini tidak sempurna dan dapat diatasi. Dalam beberapa minggu pertama setelah Sora diluncurkan, pemimpin hak-hak sipil Martin Luther King Jr. harus menghubungi OpenAI karena khawatir dengan membanjirnya video AI King yang tidak pantas dan rasis di platform. Meskipun OpenAI telah menyatakan rencananya untuk melakukan hal tersebut Bekerjalah dengan aktor dan selebriti dalam hal iniMasalah ini tidak dapat diselesaikan melalui penyesuaian atau kebijakan teknologi yang sederhana.
Konten yang dihasilkan AI sulit dikenali, tetapi ada beberapa hal yang harus diperhatikan. Berikut beberapa di antaranya.
Bahkan di era AI, tips untuk menangkap penipuan tidak berbeda dengan zaman sebelum AI. Meskipun penipu menggunakan AI, mereka tetap menggunakan taktik yang sama.
“Tanda bahayanya belum berubah: urgensi, tekanan, dan permintaan informasi pribadi atau pembayaran masih menjadi dampak terbesar,” kata Abhishek Karnik, kepala penelitian ancaman di McAfee, melalui email.
Ini sesuatu Penipuan tanda bahaya perhatikan
Penipu akan mencoba menghancurkan kepercayaan Anda, kata Karnick. Berhati-hati dan berhati-hati dalam membagikan informasi pribadi Anda dapat membantu Anda menghindari penipuan. Hanya karena sesuatu dikatakan didukung atau digunakan oleh Swift bukan berarti memang demikian.
Untuk lebih lanjut, lihat Cara mendeteksi penipuan bank Dan Mengapa email phishing tidak lagi jelas. (Pengungkapan: Jeff Davis, perusahaan induk CNET, mengajukan gugatan terhadap OpenAI pada bulan April, menuduh bahwa OpenAI melanggar hak cipta Jeff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)