Yapay zekâ ile arkadaşlık güvenli mi?
Yapay zekâ destekli arkadaşlık uygulamaları, gelişmiş dil modelleri sayesinde kullanıcılarla kişiselleştirilmiş sohbetler kuruyor. Character.AI, Nomi ve Replika gibi uygulamalar özellikle psikolojik ve romantik destek arayan kullanıcılar tarafından sıkça tercih ediliyor. Büyük teknoloji şirketleri de bu alana yönelmiş durumda. OpenAI, doğrulanmış yetişkinlere yönelik içerik sunacak yeni özelliklerini açıklarken; Elon Musk’ın xAI şirketi de Grok içinde flörtöz yapay zekâ karakterleri kullanıma sundu.

Kişisel bilgileriniz gerçekten güvende mi?
Temmuz ayında yayımlanan bir araştırmaya göre gençlerin dörtte üçü yapay zekâ arkadaşlarını kullanıyor ve yarıya yakını bunu düzenli olarak sürdürüyor. En dikkat çekici bulgu ise kullanıcıların ciddi konuşmalarda yapay zekâ botlarını insanlara tercih etmesi ve dörtte birinin son derece kişisel bilgiler paylaşması.
Bu durum riskleri artırıyor. Nitekim geçen ay iki ayrı yapay zekâ arkadaş uygulamasında kullanıcı verilerinin farkında olmadan sızdığı ortaya çıktı. Siber güvenlik uzmanlarına göre romantik sohbetlerde paylaşılan özel bilgiler, tehdit aktörleri için şantaj malzemesi hâline gelebilir.

Aileler ve kullanıcılar için güvenlik önerileri
Uzmanlara göre yapay zekâ uygulamalarında yerleşik bir gizlilik koruması olduğunu varsaymak büyük hata. Bu nedenle:
Bir yabancıya söylemeyeceğiniz hiçbir kişisel bilgiyi bu uygulamalara yazmayın.
Çocuklarınızın kullanımından endişe ediyorsanız mutlaka ön araştırma yapın.
Uygulamaların gizlilik politikalarını okuyarak verileri nasıl kullandıklarını öğrenin.
Veri satışı yaptığını belirten uygulamalardan uzak durun.
Mümkünse iki faktörlü kimlik doğrulamasını etkinleştirin.
Gizlilik ayarlarını gözden geçirerek model eğitimi için konuşma kaydının kullanımını kapatın.

Kâr amacı ön planda: Duygusal bağ kurulması riskli olabilir
Uzmanlar, yapay zekâ arkadaşlık araçlarının kâr amacıyla geliştirildiğini ve kullanıcı yararının her zaman öncelikli olmadığını vurguluyor. Çocuklar açısından psikolojik etkiler de göz ardı edilmemeli.
Gerekirse ekran süresi sınırlandırılmalı, ebeveyn kontrolleri devreye alınmalı ve içerik denetimi ile yaş doğrulaması sağlayamayan yapay zekâ uygulamalarına izin verilmemeli.
Yakın gelecekte, özellikle AB’de devreye girecek Dijital Adalet Yasası ile bağımlılık yaratan kişisel yapay zekâ deneyimlerinin sınırlandırılması gündeme gelebilir. Uzmanlara göre, düzenlemeler netleşene kadar yapay zekâ botlarını sırdaş ya da duygusal destek kaynağı olarak görmemek en güvenlisi.
Kaynak:Bülten