Yeni Birlik Gazetesi
İstanbul
Parçalı bulutlu
11°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
Ara
Yeni Birlik Gazetesi Teknoloji Yapay Zeka ile Yüz Görselleri Oluşturmak Kişisel Verileri Tehlikeye Atabilir!

Yapay Zeka ile Yüz Görselleri Oluşturmak Kişisel Verileri Tehlikeye Atabilir!

Sosyal medyada hızla yayılan "Ghibli akımı" ve benzeri yapay zeka trendleri, kullanıcıların kişisel verilerini ciddi biçimde riske atabilir. Uzmanlar, bu tür uygulamaların biyometrik veri güvenliği açısından ciddi tehditler barındırdığı uyarısında bulunuyor.

Ghibli Akımıyla Fotoğraf Paylaşımı Artıyor, Dijital Güvenlik Riskleri Büyüyor

Son günlerde sosyal medya kullanıcıları, yüzlerinin yer aldığı fotoğrafları yapay zeka destekli uygulamalara yükleyerek anime tarzında görsellere dönüştürüyor. Özellikle Japon animasyon sanatçısı Hayao Miyazaki’nin tarzını yansıtan bu görseller, “Ghibli akımı” adıyla büyük ilgi görüyor. Ancak uzmanlar, bu görsel paylaşımların arka planında ciddi kişisel veri güvenliği risklerinin bulunduğunu belirtiyor.

Yüz Görselleri Yapay Zekaya Yüklenirken Hangi Veriler Tehlikeye Giriyor?

Anadolu Üniversitesi Sosyal Medya ve Dijital Güvenlik Eğitim, Uygulama ve Araştırma Merkezi (SODİGEM) Müdürü Prof. Dr. Adile Aşkım Kurt, bu tarz trendlerin masum gibi görünse de veri güvenliği açısından tehlikeli sonuçlara yol açabileceğini ifade etti. Kurt’a göre, bu tür yapay zeka uygulamaları sadece görselleri değil, kullanıcıların yazdığı notları ve paylaştığı içerikleri de analiz ederek kişisel profiller oluşturabiliyor.

Bu durum, özellikle kimlik avı (phishing) ve sosyal mühendislik saldırıları gibi dijital tehditlere zemin hazırlıyor. Uygulamaların birçok durumda yüklenen fotoğrafları kendi sunucularında sakladığı da biliniyor. Avrupa Birliği’nde bu tür veri toplama işlemleri Genel Veri Koruma Yönetmeliği (GDPR) kapsamında ihlal sayılırken, Türkiye'de ise KVKK gereğince açık rıza alınması zorunlu hale geliyor.

Yüz, Ses ve Yazım Tarzınız Taklit Edilebilir!

SODİGEM Müdür Yardımcısı Dr. Öğr. Üyesi Serap Uğur ise bu uygulamaların yalnızca yüz verisini değil, aynı zamanda ses kayıtları, yazım tarzı, noktalama alışkanlıkları, emojiler ve hatta yaşam alanına dair ipuçları gibi detayları da toplayarak dijital kimliğin kopyalanmasına olanak sağladığını vurguladı.

“Bu tür veriler, üçüncü taraflar tarafından toplanıp saklanabilir, analiz edilebilir ve farklı amaçlarla kullanılabilir. Kullanıcılar, farkında olmadan kendi dijital izlerini teslim ediyor.” ifadelerini kullandı.

Yeni Tehlike: 3 Boyutlu Aksiyon Figürü Tasarım Akımı

Uğur ayrıca, sosyal medyada her geçen gün yeni bir trendin ortaya çıktığına dikkat çekti. Ghibli tarzı görseller henüz popülerliğini korurken, şimdi de “3 boyutlu aksiyon figürü tasarımı” gibi yeni yapay zeka akımları gündemde. Bu platformların çoğu, yüklenen verileri "eğitim verisi" olarak kullanma hakkını gizli kullanıcı sözleşmeleriyle kendilerine saklıyor.

“Görsel ya da metin üretimi ne kadar etkileyici olursa olsun, bu platformlara sağlanan verilerin kontrolsüzce kullanılması kişisel mahremiyetimizi tehdit eder hale geldi. Akım ne olursa olsun, her yeni paylaşımda dijital güvenliği düşünmek şart.” diye konuştu.

Dijital Güvenlik İçin Ne Yapmalı?

  • Yüzünüzün yer aldığı fotoğrafları tanımadığınız yapay zeka uygulamalarına yüklemeyin.
  • Gizlilik politikalarını okumadan platformlara veri sağlamayın.
  • Sadece güvenilir, şeffaf ve lisanslı uygulamaları tercih edin.
  • Sosyal medya akımlarına katılırken veri güvenliğinizi ön planda tutu
Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *