Sebuah foto yang mengklaim menunjukkan ledakan di dekat Pentagon menimbulkan kekhawatiran tentang kemampuan AI untuk menghasilkan informasi yang salah.
Sebuah gambar palsu yang menunjukkan ledakan besar di dekat Pentagon dibagikan di media sosial pada hari Senin, menyebabkan penurunan singkat di pasar saham.
Dalam beberapa menit, banyak akun media sosial, termasuk beberapa akun terverifikasi, membagikan foto palsu tersebut, yang semakin menambah kebingungan.
Para pejabat kemudian mengkonfirmasi bahwa tidak ada insiden seperti itu yang terjadi.
Detektif media sosial, termasuk Nick Waters of Bellingcatgrup verifikasi berita online, dengan cepat menunjukkan beberapa masalah penting dengan gambar tersebut, termasuk:
- Bahwa tidak ada saksi langsung lain yang menguatkan peristiwa tersebut, apalagi di kawasan ramai seperti Pentagon. “Inilah mengapa sangat sulit (saya benar-benar berpendapat tidak mungkin) untuk membuat acara palsu yang kredibel,” cuit Waters.
- Bahwa bangunan itu sendiri terlihat sangat berbeda dari Pentagon. Ini dapat dengan mudah diverifikasi dengan alat seperti Tampilan Jalan Google untuk membandingkan kedua gambar.
- Detail lainnya, termasuk tiang lampu mengambang yang tampak aneh dan tiang hitam yang mencuat dari trotoar, adalah tanda lain bahwa gambar itu tidak seperti yang terlihat. Kecerdasan buatan masih kesulitan membuat ulang lokasi tanpa memperkenalkan artefak acak.
Yakin bahwa gambar yang mengklaim menunjukkan “ledakan di dekat pentagon” ini dihasilkan oleh AI.
Lihatlah bagian depan gedung, dan bagaimana pagarnya melebur menjadi kerumunan penghalang. Juga tidak ada gambar, video, atau orang lain yang memposting sebagai saksi langsung. pic.twitter.com/t1YKQabuNL
– Nick Waters (@N_Waters89) 22 Mei 2023
Cara mendeteksi AI yang dihasilkan dan gambar palsu
Ada banyak alat AI generatif seperti Midjourney, Dall-e 2, dan Stable Diffusion yang dapat membuat gambar seperti aslinya dengan sedikit usaha.
Alat-alat ini dilatih dengan melihat gambar nyata dalam volume besar, tetapi mengisi celah dengan interpretasinya sendiri saat data pelatihan hilang. Hal ini dapat menyebabkan orang memiliki anggota tubuh ekstra dan objek yang berubah dengan lingkungannya.
Jika Anda melihat gambar daring yang dimaksudkan untuk menampilkan acara berita terbaru, ada baiknya mengingat hal-hal berikut:
- Berita tidak terjadi dalam ruang hampa โ Jika terjadi ledakan besar atau peristiwa besar, perkirakan akan melihat masuknya laporan di lapangan dari orang yang berbeda dan sudut yang berbeda.
- Siapa yang mengunggah konten – Lihat riwayat email akun pengguna. Apakah lokasi mereka dan lokasi acara cocok? Lihat siapa yang mereka ikuti dan siapa yang mereka ikuti. Dapatkah Anda menjangkau mereka atau berbicara dengan mereka?
- Gunakan alat intelijen sumber terbuka โ Alat pencarian gambar terbalik seperti Gambar Google dan TinEye dapat memungkinkan Anda mengunggah gambar dan menentukan di mana dan kapan gambar itu pertama kali digunakan. Ada beberapa lainnya peralatan yang bisa anda gunakan seperti nonton live public rekaman kamera lalu lintas untuk memverifikasi bahwa suatu peristiwa terjadi.
- Menganalisis gambar dan sekitarnya – Carilah petunjuk dalam gambar seperti tengara terdekat, rambu jalan, dan bahkan kondisi cuaca untuk membantu Anda menentukan di mana atau kapan peristiwa yang diduga terjadi.
- Tangan, mata, dan postur – Saat berurusan dengan gambar orang, berikan perhatian khusus pada mata, tangan, dan postur umum mereka. Video yang dibuat oleh AI yang meniru manusia, yang dikenal sebagai deep fakes, cenderung mengalami masalah pemotongan karena sebagian besar kumpulan data pelatihan tidak berisi wajah dengan mata tertutup. Tangan yang tidak memegang benda atau anggota tubuh yang tampak bengkok secara tidak wajar juga dapat membantu mengenali yang palsu.
Untuk informasi lebih lanjut tentang verifikasi berita dan investigasi intelijen sumber terbuka, Institut Media Al Jazeera telah menerbitkan beberapa buku panduan yang tersedia di beberapa bahasa tersedia untuk diunduh di bawah ini.
- Temukan kebenaran di antara yang salah (PDF)
- Verifikasi Berita โ Panduan Praktis (PDF)
- Investigasi Sumber Terbuka (PDF)
#Kabel๐งต
1/ Menyoroti bahaya deepfake: Apa yang terjadi ketika akun Twitter palsu dengan centang biru, berpura-pura menjadi Bloomberg, merilis ‘berita terbaru’ yang mengejutkan kemarin…โ Ulasan Jurnalisme Al Jazeera (@AJR_English) 23 Mei 2023