Sora mengubah permainan deepfake. Bisakah Anda mengetahui apakah suatu video itu nyata atau AI?

Jika Anda pernah online, kemungkinan besar Anda pernah melihat foto atau video Dibuat oleh AI. Saya tahu saya pernah dibodohi sebelumnya, sama seperti saya Video viral kelinci di trampolin. Namun Sora AI membawa video ke tingkat yang benar-benar baru, menjadikannya semakin penting untuk mengetahui cara mengenali AI.

Sora adalah aplikasi saudara ChatGPT, yang dikembangkan oleh perusahaan induk yang sama, OpenAI. Namanya diambil dari generator video AI-nya, yang diluncurkan pada tahun 2024. Namun baru-baru ini mendapat perombakan besar-besaran dengan model Sora 2 baru. Aplikasi media sosial baru dengan nama yang sama. Aplikasi seperti TikTok telah menjadi viralBerkomitmen untuk penggemar AI Temukan kode undangan. Tapi ini tidak seperti platform media sosial lainnya. Segala sesuatu yang Anda lihat di Sora adalah palsu; Semua video dihasilkan oleh AI. Sora menggunakan satu Mimpi demam deepfake AI: Sekilas tidak berbahaya, risiko berbahaya mengintai tepat di bawah permukaan.


Jangan lewatkan konten teknologi kami yang tidak memihak dan ulasan berbasis laboratorium Tambahkan CNET Sebagai sumber Google pilihan.


Dari sudut pandang teknis, video Sora sangat mengesankan dibandingkan pesaing V1 dari Tengah Perjalanan Dan Melihat Google 3. Video Sora memiliki resolusi tinggi, audio tersinkronisasi, dan kreativitas luar biasa. Fitur Sora yang paling populer, dijuluki “Cameo”, memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke dalam hampir semua adegan yang dihasilkan AI. Ini adalah alat yang mengesankan, menghasilkan video yang sangat realistis.

Itu sebabnya banyak ahli mengkhawatirkan Sora, yang dapat menyebabkan seseorang membuat deepfake, menyebarkan informasi yang salah, dan mengaburkan batas antara apa yang nyata dan apa yang tidak. Tokoh masyarakat dan selebritas sangat rentan terhadap deepfake yang berpotensi berbahaya ini, itulah sebabnya serikat pekerja lebih disukai SAG-AFTRA mendorong OpenAI untuk memperkuat pagarnya.

Mengidentifikasi konten AI merupakan tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan kita yang menggunakannya. Namun hal ini tidak sepenuhnya sia-sia. Berikut beberapa hal yang perlu diperhatikan untuk mengidentifikasi apakah suatu video dibuat menggunakan Sora

Cari tanda air Sora

Setiap video yang dibuat di aplikasi Sora iOS menyertakan tanda air saat Anda mengunduhnya. Itu adalah logo Sora berwarna putih — ikon awan — yang memantul di sekitar tepi video. Ini mirip dengan bagaimana video TikTok diberi watermark.

Memberi tanda air pada konten adalah salah satu cara terbesar perusahaan AI dapat membantu kami menemukan konten yang dibuat oleh AI. Gemininya Google Model “Seni Nano”.Misalnya, secara otomatis memberi tanda air pada gambarnya. Tanda air sangat bagus karena berfungsi sebagai tanda yang jelas bahwa konten dibuat dengan bantuan AI.

Atlas AI

Namun tanda air tidaklah sempurna. Pertama, jika watermark bersifat statis (tidak bergerak), maka dapat dengan mudah dipotong. Bahkan untuk menghilangkan watermark, seperti Sora, ada aplikasi yang dirancang khusus untuk menghilangkannya, jadi watermark saja tidak bisa dipercaya sepenuhnya. CEO OpenAI Sam Altman ditanyai tentang hal ini dikatakan Masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu tentang siapa pun. Tentu saja, sebelum munculnya OpenAI, belum ada cara yang populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video tersebut. Namun argumennya memunculkan poin valid tentang perlunya mengandalkan metode lain untuk memverifikasi keaslian.

Periksa metadatanya

Saya tahu, Anda mungkin berpikir tidak mungkin memeriksa metadata video untuk menentukan apakah itu asli. Saya memahami dari mana Anda berasal; Ini adalah langkah ekstra, dan Anda mungkin tidak tahu harus mulai dari mana. Namun ini adalah cara yang bagus untuk menentukan apakah video dibuat dengan Sora, dan ini lebih mudah dilakukan daripada yang Anda kira

Metadata adalah kumpulan informasi yang secara otomatis dilampirkan ke suatu konten saat dibuat. Ini memberi Anda lebih banyak wawasan tentang bagaimana gambar atau video dibuat. Ini mungkin termasuk jenis kamera yang digunakan untuk mengambil foto, lokasi pengambilan video, tanggal dan waktu, dan nama file. Setiap foto dan video memiliki metadata, baik yang dibuat oleh manusia atau AI. Dan banyak konten yang dihasilkan AI akan memiliki sertifikasi konten yang juga menunjukkan asal AI-nya.

OpenAI adalah bagian dari Koalisi untuk Asal dan Keaslian Konten, yang merupakan singkatan dari Sora Video. termasuk Metadata C2PA. Anda dapat menggunakan Alat verifikasi keaslian konten untuk inisiatif Untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Bagian dari inisiatif otentikasi konten C2PA.)

Cara memeriksa metadata foto, video, atau dokumen:

1. Arahkan ke URL ini: https://verify.contentauthenticity.org/
2. Unggah file yang ingin Anda uji.
3. Klik Buka.
4. Periksa informasi di panel sisi kanan. Jika dibuat oleh AI, maka harus disertakan di bagian ringkasan konten.

Saat Anda memutar video Sora melalui alat ini, akan tertulis bahwa video tersebut “dikeluarkan oleh OpenAI” dan akan menyertakan fakta bahwa video tersebut dibuat oleh AI. Semua video Sora harus memiliki kredensial ini yang memungkinkan Anda mengonfirmasi bahwa video tersebut dibuat dengan Sora

Alat ini, seperti semua detektor AI, tidaklah sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video non-Sora lainnya, metadata alat tersebut mungkin tidak berisi sinyal yang diperlukan untuk menentukan apakah video tersebut dihasilkan oleh AI. Video AI yang dibuat dengan Midjourney, misalnya, tidak ditandai, seperti yang saya konfirmasikan dalam pengujian saya. Meskipun video tersebut dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti aplikasi penghapus tanda air) dan diunduh ulang, alat tersebut akan mengidentifikasinya sebagai AI.

Tangkapan layar video Sora dijalankan melalui alat inisiatif Content Authenticity

Alat verifikasi Content Authenticity Initiative dengan tepat menandai bahwa video yang saya buat dengan Sora dibuat oleh AI, beserta tanggal dan waktu saya membuatnya.

Tangkapan layar oleh Katelyn Chedraoui/CNET

Temukan label AI lainnya dan tambahkan label Anda sendiri

Jika Anda menggunakan salah satu platform media sosial utama, seperti Instagram atau Facebook, Anda bisa mendapatkan sedikit bantuan untuk menentukan apakah sesuatu itu AI. Ada meta Sistem internal sudah ada AI untuk membantu menandai konten dan memberi label. Sistem ini tidak sempurna, tetapi Anda dapat dengan jelas melihat label untuk postingan yang ditandai tiktok Dan YouTube Ada prinsip serupa untuk memberi label pada konten AI.

Satu-satunya cara yang benar-benar dapat diandalkan untuk mengetahui apakah sesuatu dihasilkan oleh AI adalah jika penciptanya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna memberi label pada postingan mereka sebagai buatan AI. Bahkan penghargaan atau pengungkapan sederhana dalam teks Anda dapat membantu semua orang memahami bagaimana sesuatu dibuat.

Saat Anda menelusuri Sora, Anda tahu tidak ada yang nyata. Namun begitu Anda keluar dari aplikasi dan membagikan video yang dihasilkan AI, tanggung jawab kita bersama adalah mengungkapkan cara video tersebut dibuat. Model AI seperti Sora terus mengaburkan batas antara kenyataan dan AI, jadi terserah pada kita semua untuk memperjelas apakah sesuatu itu nyata atau AI.

Yang terpenting, berhati-hatilah

Tidak ada metode yang sangat mudah untuk mengetahui secara akurat apakah suatu video itu nyata atau AI. Hal terbaik yang dapat Anda lakukan untuk melindungi diri Anda dari penipuan adalah dengan tidak secara otomatis mempercayai semua yang Anda lihat online. Ikuti naluri Anda — jika ada sesuatu yang terasa tidak realistis, mungkin memang demikian. Di masa yang penuh dengan AI dan belum pernah terjadi sebelumnya ini, pertahanan terbaik Anda adalah dengan memeriksa video yang Anda tonton dengan lebih cermat. Jangan hanya melihat cepat dan menggulir tanpa berpikir. Periksa teks yang rusak, objek yang hilang, dan gerakan yang melanggar fisika. Dan jangan menyalahkan diri sendiri jika terkadang Anda bodoh; Bahkan para ahli pun salah.

(Pengungkapan: Jeff Davis, perusahaan induk CNET, mengajukan gugatan terhadap OpenAI pada bulan April, menuduh bahwa OpenAI melanggar hak cipta Jeff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)



Source link

Eko Kurniawan
Eko Kurniawan
Articles: 1170

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *