Yaren ÇÖRDÜK / GÜNDEME BAKIŞ- Yapay zekânın hızlı gelişimiyle birlikte günlük hayatımıza giren deepfake teknolojisi, görüntü ve ses manipülasyonlarını herkes için erişilebilir hale getirdi. Bir kişinin yüzünü, sesini ya da hareketlerini gerçeğe yakın şekilde taklit edebilen bu teknoloji, uzmanların ifadesiyle artık sadece eğlence amaçlı bir yenilik olmaktan çıktı. Dolandırıcılık vakalarından siyasi manipülasyonlara, kişisel itibarı hedef alan saldırılardan psikolojik travmalara kadar birçok alanda kullanılabilen deepfake içerikler, hem bireyler hem de toplum açısından giderek daha ciddi bir risk haline geliyor. Uzmanların yaptığı açıklamalar da bu tehlikenin boyutlarını net şekilde ortaya koyuyor.
Bilişim Uzmanı Eren Mısırlı, Uzman Psikolojik Danışman Batıkan Polat ve Avukat A. Aykut Dikencik, deepfake teknolojisinin Türkiye’deki etkilerini, bireylerde yarattığı psikolojik sonuçları ve hukuksal boyutlarını tüm yönleriyle GÜNDEME BAKIŞ'a anlattı.
DOLANDIRICILIK İÇİN ARTIK DEEPFAKE SIRADAN BİR ARAÇ
Mısırlı, deepfake’in artık yaygın bir manipülasyon aracına dönüştüğünü, özellikle seçim dönemlerinde ve dolandırıcılık vakalarında etkisinin katlanarak arttığını vurguluyor. Önümüzdeki yıllarda ise insanların “gördüğüne” değil, doğrulama araçlarına güveneceği bir döneme girileceğini belirtiyor.
-Günümüzde deepfake görüntü ve videoların en fazla hangi alanlarda sorun oluşturduğunu düşünüyorsunuz?
MISIRLI: Günümüzde deepfake içeriklerin en fazla sorun çıkardığı alanlar sosyal medya, siyaset ve kişisel itibar diyebilirim. İnsanlar artık gerçek ile sahteyi ayırt etmekte zorlanıyor. Özellikle seçim dönemlerinde siyasetçilerin sahte konuşmaları hızla yayılıyor ve kamuoyunu manipüle edebiliyor. Bir diğer büyük problem de kişisel itibarın hedef alınması; kişiler hiç yapmadığı şeylerle suçlanabiliyor, bu da toplumsal güveni ciddi şekilde zedeliyor.
-Sosyal mühendislik ve dolandırıcılıkta deepfake kullanımı ne kadar yaygınlaştı?
MISIRLI: Son iki yılda dolandırıcılık vakalarında deepfake kullanımı ciddi şekilde arttı. Artık insanlar sadece sahte SMS veya linklerle değil, sahte görüntülü aramalarla da kandırılıyor. Şirket yöneticilerinin sesleri taklit edilip çalışanlara para transferi yaptırıldığı vakalar gerçek. Ses taklidi eskiden zordu; şimdi 10–15 saniyelik kayıtla çok başarılı bir şekilde yapılabiliyor. Yani dolandırıcılar için deepfake artık sıradan bir araç haline geldi diyebilirim.
CANLI YAYINLARDA BİLE EŞ ZAMANLI SAHTE VİDEO YAPILABİLECEK
-Önümüzdeki 5–10 yılda deepfake teknolojisinin gelişmesiyle ne tür yeni tehditlerin ortaya çıkmasını bekliyorsunuz?
MISIRLI: Önümüzdeki yıllarda en büyük tehdit, gerçeğinden ayırt edilemeyecek düzeyde sahte içeriklerin yaygınlaşması olacak. Canlı yayınlarda bile gerçek zamanlı olarak kişilerin yüz ve ses taklitleri yapılabilecek. Bu durum özellikle kişisel itibar saldırıları, siber şantaj, sosyal medya manipülasyonları ve dolandırıcılık yöntemlerinin daha gelişmiş hale gelmesine yol açabilir. İnsanların dijital ortamdaki güven duygusu zayıflayabilir ve bilgi kirliliği çok daha hızlı yayılabilir.
-Deepfake’ler gelecekte kimlik doğrulama (yüz tanıma, sesli doğrulama) sistemlerini ne kadar tehdit edebilir?
MISIRLI: Bugün bile tehdit ediyorlar; ileride bu tehdit daha da büyüyecek. Yüz tanıma ve ses doğrulama sistemleri, yapay içeriklerle kandırılmaya çok açık. Özellikle bankacılık ve uzaktan kimlik doğrulama süreçlerinde deepfake kullanımı, büyük güvenlik açıklarına yol açabilir. Bu yüzden biyometrik sistemler artık “tek başına güvenli yöntem” olmaktan çıkıyor; çok faktörlü doğrulama giderek zorunlulaşıyor.
AMAN DİKKAT!
Bilişim Uzmanı Mısırlı, insanların sahte videoları anlaması için dikkat edebilecek o ayrıntıları paylaştı.
-Bir kullanıcı olarak sahte videolara ve seslere kanmamak için nelere dikkat etmeliyiz?
MISIRLI: En pratik ve etkili yöntem şüpheci yaklaşmak. Sosyal medyada gördüğümüz her içeriği gerçek kabul etmek yerine birkaç kontrol yapmalıyız. Videodaki kişinin ağzı, göz kırpma oranı, ışığın hareketi ve ses tonu çoğu zaman tutarsızlıklar içeriyor. Ayrıca videonun kaynağına, ilk nerede yayımlandığına ve başka haber sitelerinde yer alıp almadığına mutlaka bakmak gerekiyor.
-Sosyal medyada gördüğümüz bir videonun doğruluğunu hızlıca kontrol etmenin pratik yolları neler?
⦁ Videoyu tersine görsel arama araçlarına yüklemek
⦁ Bilinen medya doğrulama hesaplarının paylaşıp paylaşmadığına bakmak
⦁ Videonun orijinal kaynağına ulaşmaya çalışmak
⦁ Çevredeki seslerin, gölgelerin ve hareketlerin yapay durup durmadığını kontrol etmek
⦁ Aynı olayın başka açıdan kayıtları olup olmadığına bakmak
Bu adımlar sıradan bir kullanıcı için bile oldukça pratik.
-Deepfake videolarda en çok hangi görsel hatalar veya tutarsızlıklar görülüyor?
MISIRLI: Çoğunlukla yüz hatlarında hafif kaymalar, ışık yansımalarında tutarsızlık, dişlerde yapay parlama, saç kenarlarında bozulmalar ve hızlı hareketlerde “bulanıklaşma” gibi detaylar dikkat çekiyor. Gözlerin doğal olmayan şekilde parlaması veya yetersiz göz kırpma da önemli ipuçları arasında. Ses tarafında ise dudak senkronu genellikle kusursuz olmuyor.
-Kullanıcıların kendi başına yapabileceği teknik olmayan kontroller nelerdir?
⦁ İçeriğin ilk paylaşıldığı hesabın güvenilirliğini sorgulamak
⦁ Video çok “şok edici” veya kışkırtıcıysa özellikle şüphe duymak
⦁ Arka planda görünen yazıları, tabelaları, gölgeleri incelemek
⦁ Videodaki fiziksel hareketlerin doğal olup olmadığına bakmak
⦁ Paylaşılan iddianın tarih ve yer bilgisiyle çelişip çelişmediğini kontrol etmek
Bu basit adımlar, sahte içeriklerin çoğunu ortaya çıkarabiliyor.
-Bu tür manipülasyonları fark etmek için hangi teknolojilerden yararlanılıyor?
MISIRLI: Bugün en çok kullanılan yöntemler, yapay zekâ destekli doğrulama araçları, yüz analizi yazılımları, hareket simülasyonları ve piksel düzeyinde anormallikleri analiz eden algoritmalar. Büyük teknoloji şirketleri, videonun üretim izlerini (metadata, model imzaları) tespit eden sistemler geliştiriyor.
-Sahte içeriklerin teknik olarak tespiti nasıl mümkün oluyor?
MISIRLI: Bir görüntünün deepfake olup olmadığını anlamak için genellikle şu teknik yöntemler kullanılıyor:
⦁ Piksel düzeyinde tutarsızlık analizi
⦁ Işık ve gölge uyumsuzluklarının matematiksel olarak tespiti
⦁ Ses dalga formu karşılaştırmaları
⦁ Video sıkıştırma katmanlarının analiz edilmesi
⦁ Orijinal görüntünün fingerprint (parmak izi) verileriyle karşılaştırma
Bu sayede, profesyonelce hazırlanmış içerikler bile çoğu zaman iz bırakıyor ve teknik olarak tespit edilebiliyor.
GERÇEK Mİ, SAHTE Mİ? DEEPFAKE İNSAN PSİKOLOJİSİNİ SARSIYOR
Uzman Psikolojik Danışman Batıkan Polat, günümüzde giderek yaygınlaşan deepfake teknolojisinin bireyler ve toplum üzerindeki psikolojik etkilerini değerlendirdi. Polat, sahte video ve görsellerin yol açtığı güven erozyonundan travmatik etkiler ve kimlik bütünlüğüne kadar uzanan süreçleri ele alırken, mağdurlar için uygulanabilecek psikolojik destek yöntemlerini ve toplumun “gördüğüne inanma” yaklaşımını nasıl geliştirebileceğini anlattı.
-Sahte video ve görsellerin yayılması bireylerde nasıl bir güvensizlik veya paranoya yaratabilir?
POLAT: Deepfake teknolojisi, kişinin “gördüğüne güvenme” mekanizmasını doğrudan hedef alıyor. İnsan beyni görüntüyü en güçlü kanıt olarak kabul ettiği için, sahte içeriklerin yayılması bireylerde doğal olarak bir temel güven aşınması yaratıyor. Kişi sosyal medyada karşılaştığı bir görüntünün gerçekliğinden emin olamadığında, zamanla şüphecilik, genel güvensizlik, paranoyaya yaklaşan tetikte olma hali ve “Gerçek mi, değil mi?” üzerinden sürekli zihinsel kontrol çabası görülebiliyor. Bu durum sadece bireysel değil, toplumsal ölçekte de güven erozyonuna yol açıyor.
KONTROL KAYBI HİSSİ YARATIYOR!
Bu tür travmalar, kişinin kendi kimliğine dair algısında derin sarsıntılara yol açabiliyor. Polat, mağdurların kendilerini “kontrolü kaybolmuş” gibi hissettiğini ve bu durumun hem sosyal hem de mesleki yaşamlarında ciddi zorluklar doğurduğunu vurguluyor. Bu psikolojik yük, kişinin günlük hayatını ve ilişkilerini doğrudan etkileyebiliyor
- Deepfake’e maruz kalan kişilerde ne türlü travmatik etkiler görülüyor?
POLAT: Deepfake mağdurları aslında bir mahremiyet ve kimlik ihlali yaşıyor. Özellikle iftira amaçlı kullanılan videolarda etkiler oldukça ağır olabiliyor. En sık gördüğümüz tepkiler: yoğun utanç ve aşağılanma hissi, kişisel alanın zorla ihlal edildiği duygusu, toplumsal damgalanma korkusu, kaygı atakları ve uyku bozuklukları, ilişkilerde güven sorunu ve travma sonrası stres benzeri belirtiler. Kişi, “Ben böyle bir şey yapmadım ama insanlar öyle görebilir” düşüncesiyle kimlik bütünlüğünde ciddi sarsıntı yaşayabiliyor.
MAĞDURLARDA KALICI HASAR BIRAKABİLİR
Polat, bu süreçte en kritik noktanın mağdurun suçluluk hissetmemesi olduğunu belirtiyor. Utanç ve korkunun kaynağının kendisi olmadığını anlamak, kişinin iyileşme sürecini hızlandırıyor ve kimlik bütünlüğünü yeniden inşa etmesine yardımcı oluyor. Dijital travmaların, geleneksel travmalardan farklı olarak görünmez ama kalıcı etkiler bırakabileceğini özellikle vurguluyor.
- Deepfake mağdurları için psikolojik destek süreci nasıl olmalıdır?
POLAT: Bu süreç bir tür dijital travma müdahalesi gerektirir. İlk hedef, kişinin duygusal güvenliğini yeniden kurmaktır. Destek sürecinde özellikle şu alanlara odaklanıyoruz:
Krize müdahale ve duygusal stabilizasyon: kişinin yaşadığı panik, öfke, utanç ve korku duygularını regüle edebilmesi sağlanır.
Bilişsel yeniden yapılandırma: “Herkes bana inanacak”, “İtibarım bitti” gibi felaket düşüncelerini ele alıyoruz.
Kimlik bütünlüğünü güçlendirme: kişinin kendi gerçek benliğini, dijital manipülasyondan ayırabilmesini destekliyoruz.
Travma odaklı müdahaleler (gerekirse EMDR vb.)
Sosyal destek ve hukuki süreç koordinasyonu: kişinin yalnız olmadığını, adım adım ilerleyebileceğini hissettirmek terapinin önemli parçasıdır.
Bu noktada kişinin suçluluk hissetmemesi ve utancın sorumlusunun kendisi olmadığını anlaması en kritik aşamalardan biridir.
- Bir kişinin sahte görüntüsünün internette dolaşması ne türlü psikolojik hasarlara yol açıyor?
POLAT: Sahte bir görüntünün yayılması, kişinin dijital olarak “kopyalanması” ve kontrolünün elinden alınması anlamına geliyor. Bu da doğal olarak kaygı ve güvensizlik, öfke ve çaresizlik, sosyal çekilme, benlik saygısında düşme, “Başka hangi içerikler yapılır?” korkusu, güvenlik ve mahremiyet kaygıları ile iş ve özel yaşamda performans düşüşü gibi sonuçlar doğuruyor. Kişi, kendi üzerinde bir otorite kaybı yaşadığını hisseder; bu his psikolojik olarak oldukça yıpratıcıdır.
DİJİTAL OKURYAZARLIĞININ ÖNEMİ
Toplumun bu farkındalığı kazanması, hem bireysel hem de toplumsal güvenin yeniden inşasında kritik bir adım olarak öne çıkıyor.
- Toplum, gördüğü içeriklere karşı ‘gördüğüne inanma’ yaklaşımını nasıl geliştirmeli?
POLAT: Günümüzde temel kural şu olmalı: “Kaynağını doğrulamadan hiçbir görüntüye kesin gerçek gözüyle bakma.” Toplumda bunun gelişmesi için:
Dijital okuryazarlık eğitimleri artırılmalı,
Çocuklara ve ebeveynlere erken yaşta dijital farkındalık kazandırılmalı,
Bireyler gördüğü görüntüyü değil, kaynağını sorgulamalı,
Sosyal medyada hızlı yargılama kültüründen uzaklaşılmalı,
Güvenilir doğrulama platformları (Teyit.org vb.) daha aktif kullanılmalı.
Deepfake çağında görüntü artık kanıt değil, doğrulanması gereken bir veri parçasıdır.
DEEPFAKE’İN HUKUKSAL BOYUTLARI: AV. A. AYKUT DİKENCİK ANLATTI
Teknolojinin hızla gelişmesiyle birlikte “deepfake” içerikler, sosyal medyada ve gündelik hayatımızda giderek daha fazla karşımıza çıkıyor. Peki, bu sahte video ve görüntüler hukuken nasıl değerlendiriliyor? Avukat A. Aykut Dikencik, Türkiye’de deepfake’in hukuki boyutlarını ve içerik üretimi ile paylaşımının cezai sorumluluklarını açıkladı.
-Deepfake içerik üretmek hangi suç kapsamına girer?
DİKENCİK: Türkiye’de “deepfake” terimi henüz doğrudan tanımlanmamış ve özel bir suç tipi olarak düzenlenmemiştir. Ancak içeriğin amacı ve niteliğine göre Türk Ceza Kanunu ve diğer mevzuat hükümleri uygulanabilir. Örneğin:
Kişilik haklarına saldırı (TCK m.134): Deepfake içerikler genellikle bir kişinin özel hayatına ilişkin görüntülerini manipüle eder. Bu durumda 1 yıldan 3 yıla kadar hapis cezası öngörülür. Cinsel içerikli durumlarda suçun ağırlığı artar (TCK m.226).
İftira suçu (TCK m.267): Bir kişiyi kamuya veya yetkili makamlara işlemediği bir suçu işlemiş gibi göstermek amacıyla deepfake üretmek, 1 yıldan 4 yıla kadar hapis cezası doğurabilir.
Hakaret suçu (TCK m.125): Kişinin onur, şeref veya saygınlığını zedeleyen içerikler hakaret kapsamına girer. Ceza: 3 aydan 2 yıla kadar hapis veya adli para cezası.
Veri ihlali ve kişisel verilerin hukuka aykırı işlenmesi (TCK m.135-140): Deepfake üretiminde bir kişinin fotoğrafı, sesi veya videosu kullanılıyorsa bu veriler kişisel veri olarak korunur. Hukuka aykırı işleme veya yayılma durumunda 1 yıldan 3 yıla kadar hapis cezası uygulanır.
Bilişim suçları (TCK m.243-245): Eğer deepfake içeriği üretmek için bir kişinin cihazına izinsiz erişim sağlanmışsa, bilişim sistemine girme ve verileri bozma suçları da oluşur.
SAHTE VİDEO ÜRETEN KADAR PAYLAŞAN DA SUÇLU!
Gelişen yeni medya organları ve onun beraberinde getirdiği olumsuz etkileri hayatımızı birçok yönden etkiliyor. Artık bir videonun neredeyse tüm ülkede saniyeler içinde gündem olması çok kolay, özel hayatı ihlal edici yapay zeka videolar ve fotoğraflar artık çoğu insanın korkulu rüyası haline geldi. Hiç tanımadığınız birinin bile hedefi olabilirsiniz. Medyada gördüğünüz fotoğraf ve videoları paylaşamadan önce iki kez düşünmelisiniz çünkü hiç istemeden bir suça ortak olabilirsiniz. Dikencik üretilen sahte video ve fotoğrafları yapan kadar bunu paylaşan kişi ve kişilerin de konunları ihalal ettiğinin altını çizdi.
-Bu içerikleri paylaşanlar da cezalandırılır mı?
DİKENCİK: Evet. Üretici kadar paylaşanlar da sorumludur. İçeriği bilerek paylaşan, kişinin özel hayatına dair olduğunu bilen veya kamuoyunu yanıltmak veya itibarsızlaştırmak amacıyla yayan kişiler, TCK m.134/2 uyarınca ayrıca cezalandırılır. Sosyal medya paylaşımları delil niteliği taşır; IP kayıtları ve paylaşım zamanı tespit edilerek soruşturma açılabilir.
TÜRKİYE’DE DEEPFAKE DAVALARI VE EMSALLER
Gelişen teknoloji ile hayatımıza henüz yeni dahil olan deepfake kavramı çok kısa sürede her kesim tarafından besimsenip yeni bir dijital zorbalığın ve dolandırıcılığın gözde araçları haline geldi. Avukat Dikencik’in henüz konu ile ilgili çok dava olmasa da kanunda bu suça yönelik maddeler olduğunu belirtti.
-Türkiye’de bu konuda açılmış davalar ve emsal kararlar var mı?
DİKENCİK: Şu an için “deepfake” adıyla çok sayıda dava yok, teknoloji oldukça yeni. Ancak Yargıtay’ın içtihatları mevcuttur. Örneğin:
Yargıtay 8. Ceza Dairesi (2022/7890 E. – 2023/2345 K.): Bir kişinin görüntü ve sesinin deepfake ile gerçek dışı şekilde düzenlenmesi, TCK 125 kapsamında hakaret ve TCK 136 kapsamında kişisel verilerin hukuka aykırı kullanımı suçlarını oluşturabilir.
Sosyal medya üzerindeki özel hayatın ihlali bağlamında, kişinin fotoğrafının gerçeğe aykırı şekilde umuma arz edilmesi kişilik hakkı ihlali olarak değerlendirilir.
Sonuç olarak, Türkiye’de deepfake özel bir suç tipi olarak tanımlanmamış olsa da üretilmiş ve paylaşılmış içerikler mevcut suç tipleri (özellikle özel hayatın gizliliği, hakaret, müstehcenlik, kişisel verilerin hukuka aykırı kullanımı, dolandırıcılık vb.) kapsamında değerlendirilebiliyor. Paylaşanlar da sorumluluk taşıyor; içerik üretimi dışında yayılması, umuma arz edilmesi ve izinsizliği cezai ve tazminat sorumluluğu doğurabilir.