Dünya genelinde milyonlarca kullanıcısı bulunan toplumsal medya platformları, ABD-İran tansiyonuna dair uydurma içeriklerle dolup taşmaya devam ediyor.
Yapay zeka teknolojileri kullanılarak üretilen savaş imgeleri, dijital mecralarda geniş kitlelere ulaşarak büyük bir bilgi kirliliğine ve baş karışıklığına sebebiyet veriyor.
YAPAY ZEKA VE ESKİ MANZARALARLA ALGI OPERASYONU
AAP FactCheck tarafından yürütülen ayrıntılı incelemeler, dijital içeriklerin gerçek savaş anlarını yansıtmadığını ve pek birçoklarının yapay zeka aracılığıyla sıfırdan oluşturulduğunu kanıtlıyor.
Uzmanlar, şimdiki olaylara atfedilen birçok görüntünün aslında yıllar evvel meydana gelmiş farklı olaylara ilişkin olduğunu ya da yapay zeka ile üretildiğini evraklarıyla birlikte kamuoyuna sunuyor.
Maram Susli isimli bir yorumcunun Dubai'deki CIA merkezinin vurulduğu teziyle paylaştığı yanan bina görüntüsü, dezenformasyonun ulaştığı boyutları gözler önüne serdi.
Gerçekte bu imgelerin 2015 yılında Birleşik Arap Emirlikleri'nin Şarjah kentindeki bir konut yangınına ilişkin olduğu, memleketler arası haber ajanslarının arşiv kayıtlarıyla doğrulanıyor.

DUBAİ SİMGELERİ ÜZERİNDEN YÜRÜTÜLEN GEÇERSİZ İÇERİKLER
Sosyal medya hesapları üzerinden yayılan manzaralarda Burj Khalifa, Burj Al Arab ve Palm Jumeirah üzere simge yapıların alevler içinde kaldığı argüman ediliyor.
Yapılan zıt görsel aramalar sonucunda Burj Khalifa'nın yandığını gösteren karelerin, aslında on yıl evvel çekilmiş ve binayı sis bulutu içinde gösteren bir fotoğraftan ibaret olduğu anlaşılıyor.
2026 Şubat sonundaki hücumlarda kimi bölgeler hasar görmüş olsa da kentin en yüksek binası olan Burj Khalifa'nın ziyan gördüğüne dair hiçbir delil yok.
Paylaşılan bu üslup manipülatif içerikler, bölgedeki gerçek durumun anlaşılmasını zorlaştırırken dijital platformlardaki panik havasını da körüklüyor.
HAMANEY'E İLİŞKİN OLDUĞU SAV EDİLEN SAHTE FOTOĞRAFLAR
İran'ın dini lideri Hamaney'in enkaz altında kaldığını gösteren fotoğrafların da büsbütün dijital ortamda kurgulandığı teknik incelemelerle saptandı.
Google tarafından geliştirilen SynthID yapay zeka algılama aracı, bu görsellerin üzerinde yapay zeka üretimini doğrulayan dijital filigranlar tespit etti.
İran devlet medyasının Hamaney'in vefatına dair yaptığı resmi duyuruya karşın, önderin naaşını yahut olay anını gösteren doğrulanmış rastgele bir görsel bulunmuyor.

CENAZEYE DAİR ALDATICI GÖRÜNTÜ PAYLAŞIMLARI
Milyonlarca kişinin katıldığı tez edilen bir cenaze merasimi görüntüsü, toplumsal medya mecralarında İran başkanına veda anları olarak servis ediliyor.
Oysa yapılan araştırmalar, bu manzaraların 2025 yılının başlarında Lübnan'da düzenlenen farklı bir cenaze merasimine ilişkin olduğunu açıkça gösteriyor.
Videonun orijinalinde Hizbullah lideri Hasan Nasrallah için Beyrut'ta düzenlenen merasim yer alırken, tabutların üzerindeki Lübnan bayrakları dikkatli gözlerden kaçmıyor.
Bu cins içerikler, kullanıcıların duygusal yansılarını istismar ederek gerçeği saptırmak hedefiyle sistemli bir halde dolanıma sokuluyor.
ASKERİ ÜSLERE DAİR MANİPÜLE EDİLMİŞ UYDU GÖRÜNTÜLERİ
Katar'da bulunan El Udeid Hava Üssü'ndeki ABD radarının imha edildiğini gösteren "öncesi ve sonrası" fotoğraflarının da gerçeği yansıtmadığı belirlendi.
Analizler, "öncesi" olarak sunulan görselin aslında Bahreyn'in Manama kentindeki ABD Beşinci Filo Deniz Üssü'ne ilişkin Google Haritalar imajı olduğunu kanıtladı.
"Sonrası" olarak paylaşılan ve ağır hasarı gösteren karenin ise yapay zeka tarafından yepyeni manzaraya hasar efektleri eklenerek üretildiği saptandı.
Gerçek uydu dataları bölgede birtakım hasarların olduğunu doğrulasa da toplumsal medyada dolaşan görsellerin büsbütün dijital manipülasyon eseri olduğu teknoloji uzmanlarınca tescillendi.

SAHTE İÇERİKLER NASIL TESPİT EDİLİR
Dijital teknolojilerin süratle gelişmesiyle birlikte yapay zeka tarafından üretilen içerikler, insan gözünün ayırt edemeyeceği kadar gerçekçi bir boyuta ulaştı. Bunu üstteki örneklerde de görüyoruz.
New York Times tarafından gerçekleştirilen ve 1.000'den fazla taramayı kapsayan test sonuçları, bu dedektörlerin birtakım içerikleri muvaffakiyetle saptadığını lakin kesin bir karar vermek için şimdi kâfi inancı sağlamadığını ortaya koyuyor.
TESPİT ARAÇLARININ GÜÇLÜ VE ZAYIF YANLARI
Piyasada bulunan dijital dedektörler, yapay zeka araçlarının gerisinde bıraktığı dijital sinyalleri, kompozisyon yanılgılarını ve bilinmeyen filigranları tarayarak çalışıyor.
Yapılan testler, bu araçların kolay komutlarla oluşturulmuş portre fotoğraflarını yahut eksiksiz ışıklandırmaya sahip düzmece yüzleri saptamada hayli başarılı olduğunu gösteriyor.
Ancak içerik karmaşıklaştıkça ve sahneler kurgusal ayrıntılarla zenginleştikçe, birçok aracın yanılma hissesi önemli oranda artış gösteriyor.
Özellikle görüntü fotoğrafları yahut karmaşık art plana sahip görsellerde dedektörlerin başı karışabiliyor.
Uzmanlar, bu araçların sonuçlarının kesinlikle resmi haber raporları yahut öteki görsel ispatlarla desteklenmesi gerektiğini vurguluyor.
Tek bir aracın verdiği "gerçek" yahut "yapay zeka" kararına güvenerek hareket etmek, bilgi kirliliğini daha da derinleştirme riski taşıyor.

İngiliz Vietnam Üniversitesi'nden Profesör Mike Perkins, yapay zeka tespitinde yüzde 100 muvaffakiyet oranına hiçbir vakit ulaşılamayacağını savunuyor.
Yapay zeka modelleri geliştikçe, tespit araçlarının da bu gelişmeye ayak uydurmak zorunda kaldığını belirten Perkins, bu durumu bitmek bilmeyen bir "silahlanma yarışı" olarak tanımladı.
Üretici modeller daha pürüzsüz içerikler sundukça, tespit teknolojilerinin dijital ipuçlarını yakalaması her geçen gün daha da sıkıntı bir hal alıyor.
VİDEOLARIN İÇİNE GİZLENMİŞ FİLİGRANLARI ARAMAYA BAŞLAYIN
Sora iOS uygulaması üzerinden oluşturulan her görüntü, aygıta indirildiği anda özel bir filigranla işaretleniyor. Bu işaretlemeler ekseriyetle görüntünün kenarlarında hareket eden beyaz bir bulut simgesi biçiminde karşımıza çıkıyor.
İçeriklere filigran eklemek, teknoloji şirketlerinin yapay zeka üretimlerini görsel olarak ayırt etmemize yardımcı olduğu en büyük adımlardan biri.
Örneğin Google'ın Gemini Nano Banana modeli de ürettiği tüm imajlara otomatik olarak kendi özel filigranını yerleştiriyor.
Yine de filigranların büsbütün kusursuz bir güvenlik sağladığını söylemek epeyce güç. Sabit duran bir filigran kolay bir kırpma süreciyle kolay kolay yok edilebilirken, hareketli olanları silmek için de özel uygulamalar piyasaya sürüldü.
OpenAI CEO'su Sam Altman bu mevzu hakkında toplumun herkesin geçersiz görüntü üretebileceği yeni bir dünyaya ahenk sağlaması gerektiğini belirtiyor.
Bu yüzden bir görüntünün gerçekliğini doğrulamak için yalnızca filigranlara değil farklı prosedürlere de güvenmemiz kaide.

GÖRÜNMEYEN DİJİTAL İZLERİ, YANİ META DATALARI DENETİM EDİN
Bir görüntünün yalnızca dış görünüşüne bakarak gerçek olup olmadığını anlamak bazen imkansız bir hal alabiliyor. Bu türlü durumlarda evrakın derinliklerine inerek meta bilgilerini denetim etmek mükemmel ve bir o kadar da kolay bir tahlil yolu sunuyor.
Meta bilgi, bir fotoğraf yahut görüntü oluşturulduğu anda o belgeye otomatik olarak eklenen kapsamlı bir bilgi koleksiyonunu tabir ediyor.
Bu datalar kameranın cinsinden çekim yerine, tarihinden yapay zeka kökenini belirten içerik kimlik bilgilerine kadar pek çok ayrıntısı barındırıyor.
OpenAI şirketinin de bir kesimi olduğu İçerik Kaynağı ve Yepyeniliği Koalisyonu sayesinde Sora görüntüleri özel meta bilgiler içeriyor.
SOSYAL MEDYA ETİKETLERİNE VE İÇGÜDÜLERİNİZE GÜVENİN
Instagram yahut Facebook üzere Meta platformlarında geziniyorsanız, bir içeriğin yapay zeka eseri olup olmadığını anlamak için sistemin kendi ihtarlarından yardım alabilirsiniz.
Bu sistemler her vakit kusursuz çalışmasa da işaretlenmiş gönderilerdeki etiketler size içeriğin kökeni hakkında çok değerli bir ipucu verebiliyor.
Aynı halde TikTok ve YouTube platformları da geçersiz içerikleri etiketleme konusunda epey katı siyasetlere sahip.
Yine de bir şeyin yapay zeka tarafından oluşturulduğunu anlamanın en garantili yolu, içerik üreticisinin bunu dürüstçe açıklamasıyla mümkün oluyor.
Sosyal medya platformlarının birçok artık kullanıcılara kendi gönderilerini yapay zeka üretimi olarak etiketleme imkanı sunuyor.
Açıklama kısmına eklenecek kolay bir not bile dijital dünyadaki bilgi kirliliğini tedbire konusunda devasa bir yarar sağlıyor.

GÖRSEL DOKULARI YAKINDAN İNCELEYİN
Yapay zeka modelleri, bilhassa kaotik savaş sahnelerini üretirken kimi dokuları fazla pürüzsüz yahut plastik üzere yansıtır.
Askeri araçların üzerindeki kamuflaj desenlerinde, silahların namlu uçlarında yahut binaların yıkıntı ayrıntılarında "erimiş" üzere duran, asimetrik yahut birbirine giren pikseller geçersizliğin en büyük habercisidir.
Tel Aviv'e atılan füzeleri gösterdiği argüman edilen aşağıdaki görüntü, son günlerde toplumsal medyada sıkça paylaşıldı. Lakin yakından bakıldığında bu imgelerin yapay zeka ile üretildiği anlaşılıyor.
Örneğin görseldeki otomobillerin iç içe geçtiğini ve füze izlerinin tutarsız olduğunu görüyoruz. Üstelik bu görüntüyü Instagram hesabından birinci defa paylaşan kullanıcı da açıklama kısmında görüntünün yapay zeka üretimi olduğunu açıkça belirtiyor.

Gerçek bir patlamada duman ve ateş, rüzgarın istikametine ve ortamın fizikî koşullarına nazaran kaotik ancak dengeli bir biçimde dağılır.
Yapay zeka ile üretilmiş görüntülerde ise alevler ekseriyetle doğal olmayan bir simetriye sahiptir.
Duman bulutlarının havada asılı kalma mühleti yahut dağılma suratı gerçek dünya fiziğiyle uyuşmaz. Şarapnel kesimlerinin uçuş yörüngeleri ekseriyetle eksiktir yahut mantıksızdır.
ASKERİ ÜNİFORMALARA VE TABELALARA DİKKAT
Üretken yapay zeka araçları şimdi harfleri ve yazıları hareketli sahnelerde kusursuz formda işleyemiyor.
Videodaki askerlerin üniformalarındaki peçlere, araçların üzerindeki plakalara yahut sokak tabelalarına yakından bakıldığında; harflerin birbirine girdiği, hiçbir lisanda karşılığı olmayan anlamsız sembollere dönüştüğü açıkça görülebilir.
SES VE İMAJ UYUMSUZLUĞU
Derin kurgu (deepfake) görüntüler ekseriyetle görsel olarak ikna edici olsa da ses tasarımı konusunda sınıfta kalır.
Gerçek bir çatışma anında patlama sesleri, sirenler ve insan bağırışları ortamın yankı dinamiklerine nazaran şekillenir.
Sahte görüntülerde ise sesler ekseriyetle "stüdyo ortamında kaydedilip görüntünün üzerine yapıştırılmış" üzere yalıtılmış ve pürüzsüz duyulur. İmajdaki uzaklıklar ile sesin şiddeti ortasındaki orantısızlık kritik bir ayrıntıdır.
ARKA PLAN DETAYLARI
Odağın dışında kalan, art planda kaçışan insanlara yahut asker kümelerine dikkat edin. Yapay zeka, ana nesneye odaklanırken art plandaki figürleri çoklukla deforme eder.
Fazla yahut eksik uzuvlar, yüz çizgileri silinmiş beşerler ve doğal olmayan, tekrarlayan koşma animasyonları görüntünün sentetik olduğunu ele verir.

SOSYAL MEDYA DEVLERİ ALARMDA
Artan dezenformasyon dalgasına karşı toplumsal medya devleri de yeni tedbirler alıyor. X platformu, yapay zeka eseri silahlı çatışma manzaralarını sentetik olduğunu belirtmeden paylaşan hesapların gelir paylaşım programından 90 gün müddetle uzaklaştırılacağını duyurdu.
Uzmanlar, kuşkulu içeriklerle karşılaşıldığında bilakis görsel arama yapılmasını ve bağımsız teyit platformlarının (teyit.org vb.) raporlarının takip edilmesini öneriyor.
Ayrıca, Hive AI üzere yapay zeka tespit araçlarını da kullanabilirsiniz.
Son olarak Google, kendi yapay zekaları ile üretilen içeriklere bilinmeyen bir filigran ekliyor. Google Gemini'yi açın ve fotoğrafı yükledikten sonra şunu yazın: "SynthID filigranını denetim et." Google size bu görselin yapay zeka ile üretilip üretilmediğini söyleyecektir.
Yorumlar
Kalan Karakter: