6 Ekim 2025 | Pazartesi | 00:47
Sonuç Yok
Tüm Sonucu Görüntüle
Bülten
Muhbir
  • Anasayfa
  • Gündem
  • Politika
  • Finans
  • Uluslararası
  • Köşe Yazıları
  • Anasayfa
  • Gündem
  • Politika
  • Finans
  • Uluslararası
  • Köşe Yazıları
Sonuç Yok
Tüm Sonucu Görüntüle
Muhbir
Ana Sayfa Teknoloji

Dolandırıcıların yeni yöntemi ‘yapay zeka’ teknolojisi

Sosyal Medya Uzmanı Erdem Cırık, yapay zekanın son zamanlarda artan sahte içerikler ve dolandırıcılık faaliyetleri üzerindeki etkilerine dikkat çekti. Cırık, özellikle ünlü kişilerin ses ve görüntülerinin yapay zeka ile klonlanarak sahte reklamlarda kullanıldığına vurgu yaptı.

13 Şubat 2024
İçinde Teknoloji
0
Dolandırıcıların yeni yöntemi ‘yapay zeka’ teknolojisi
Share on FacebookShare on Twitter

Yapay zeka teknolojisinin ilerlemesi dolandırıcıların yeni taktikler geliştirmesine yol açtı. Son zamanlarda, bu teknoloji ile devlet yetkilileri ve tanınmış kişilerin sesleri ve görüntüleri taklit edilebiliyor. Dolandırıcılar, bu yetenekleri kullanarak tanıdık kişilerin seslerini taklit edip gerçek dışı içerikler oluşturuyorlar. Vatandaşlar, tanıdıklarına güvenerek üretilen sahte reklamlara tıklıyor ve dolandırıcıların tuzağına düşebiliyor. Ayrıca sosyal medya platformlarında dolaşan sahte içeriklerle dolandırıcılar vatandaşları yanıltarak sahte haber sitelerine yönlendiriyor.

Devlet yetkilileri taklit ediliyor

Erdem Cırık, son zamanlarda sosyal medyada artan sahte içeriklerin ve dolandırıcılık faaliyetlerinin kullanıcıları hedef aldığını belirterek, “Yaptığımız araştırmalarda, sosyal medya platformlarında açtığımız sahte hesaplar aracılığıyla 90’dan fazla sahte reklam tespit ettik. Bu reklamlarda, devlet adamları ve ünlülerin resimleri, videoları ve sesleri yapay zeka ile klonlanmış olarak kullanılmış” dedi. Cırık, reklamlara tıklayan kullanıcıların sahte haber sitelerine yönlendirildiğini vurgulayarak, “Bu sitelerde manipülatif içerikler üretiliyor. Örneğin, kimi kişilerin yüksek kazanç elde ettiği iddialarıyla sahte haberler yayımlanıyor ve kullanıcılar bu tür içeriklere inanarak dolandırıcıların tuzağına düşebiliyorlar” şeklinde konuştu.

“Popüler olan kişilerin görüntüleri kullanılarak, kullanıcıların güveni kazanılıyor”

Cırık, yapay zeka ile oluşturulan sahte içeriklerin gerçekçi göründüğünü ve bu nedenle kullanıcıların kolayca kandırılabildiğini belirterek, “Bu içeriklere tıklayan kullanıcılar, gerçek bir haber okuduklarını sanıyorlar ve sonunda karşılarına çıkan formları dolduruyorlar. Bu formları dolduran kullanıcıların kişisel bilgileri dolandırıcıların eline geçiyor” diye konuştu. Sahte reklamlarda Cumhurbaşkanı Recep Tayyip Erdoğan, BOTAŞ, Ekrem İmamoğlu, CZN Burak gibi tanınmış kişilerin görsellerinin kullanıldığını da belirten Cırık, “Sosyal medyada geniş kitlelere ulaşan kişilerin görüntüleri sıklıkla kullanılarak, kullanıcıların güveni sağlanmaya çalışılıyor” şeklinde ifade etti.

“Gerçek haber sitelerinin isimlerini kullanamıyorlar”

Cırık, dolandırıcılık vakalarının artmasıyla ünlü isimlerin sürekli olarak sosyal medyada uyarılarda bulunduğunu belirterek, kullanıcıların dikkatli olmaları gerektiğini vurguladı. “Reklamlara tıkladığınızda, URL yapısını kontrol edin. Gerçek haber sitelerinin isimlerini kullanamıyorlar, bu yüzden sahte linklerle sahte bilgiler sunuyorlar” dedi. Yapay zeka ile üretilen içeriklerin ayırt edilmesinin zor olduğunu ifade eden Cırık, “Ancak dikkatli bir incelemeyle, yapay zekanın robotik yapısının farkına varılabilir” şeklinde konuştu.

Etiketler: Erdem Cırık
Sonuç Yok
Tüm Sonucu Görüntüle

Hakkımızda

Muhbir

Başka Muhbir Yok!

Twitter Instagram Youtube
  • Anasayfa
  • Gündem
  • Politika
  • Finans
  • Uluslararası
  • Köşe Yazıları
  • Künye

Son Yazılar

  • Ekrem İmamoğlu’ndan yeni açıklama!
  • Özgür Özel ‘bomba’ diyerek duyurdu: Yeni ses kaydındaki kişiyi açıkladı
  • Milliyetçi Kongre Derneği’nden Müsavat Dervişoğlu’na Ziyaret
  • Özgür Özel’den ‘kurultay davası’ ve ‘erken seçim’ çıkışı! ‘Mansur Yavaş’ sorusuna çarpıcı yanıt: ‘Aday değişecekse, bu kararı…’
  • Adalet Bakanı Tunç’tan Özgür Özel’e: ‘Kendisi bir eczacı, bu ayrımı yapamaz’

© 2024 ajansmuhbir.com.tr Tüm hakları saklıdır

Sonuç Yok
Tüm Sonucu Görüntüle
  • Anasayfa
  • Gündem
  • Politika
  • Finans
  • Uluslararası
  • Köşe Yazıları

© 2024 ajansmuhbir.com.tr Tüm hakları saklıdır