Yapay Zeka Platformları Suçları Önceden Belirleyebiliyor
Yapay zeka platformları, suçları önceden belirleyebilme yeteneğiyle dikkat çekiyor. ChatGPT gibi modeller, kötüye kullanımları tespit edip engelliyor.
İstanbul
AA muhabirinin derlediği bilgilere göre, yapay zeka teknolojisi günümüzde yaşamın her alanına nüfuz ederek etkisini artırıyor. Bu teknoloji, kullanıcılar tarafından özellikle büyük dil modelleri aracılığıyla yoğun biçimde kullanılmakta.
Öne çıkan yapay zeka modelleri arasında ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude yer alıyor. Araştırma ve sağlık gibi birçok alanda yararlanılan bu modeller, bazı kullanıcılar tarafından kötü niyetli amaçlarla da kullanılabiliyor.
Yapay zekanın kötüye kullanımı, fiziksel saldırıların planlanması ve silah üretimi gibi örneklerle kendini gösteriyor. Platformlar, bu tür kötüye kullanımları önlemek için modellerini eğiterek bu taleplerin reddedilmesini sağlama yoluna gidiyor.
Veri Gizliliği ve Önleyici Tedbirler
Yapay zekanın suç amaçlı kullanımıyla ilgili bir olay Kanada'da meydana geldi. British Columbia eyaletinde 10 Şubat'ta bir okul ve evde düzenlenen silahlı saldırıda saldırgan dahil 10 kişi hayatını kaybetti, 27 kişi yaralandı.
18 yaşındaki saldırgan Jesse Van Rootselaar'ın ChatGPT'yi suç amaçlı kullandığı, OpenAI tarafından olaydan aylar önce tespit edilmişti.
Wall Street Journal'a göre, Van Rootselaar, geçen yılın Haziran ayında ChatGPT'ye silahlı eylemlerle ilgili senaryolar yazdı. ChatGPT'nin otomatik inceleme sistemi bu iletişimleri işaretleyerek OpenAI çalışanlarına iletti ve kullanıcının hesabı kapatıldı.
Şirket içinde, bu bilgilerin güvenlik güçlerine bildirilip bildirilmemesi tartışıldı ancak gerekli kriterleri karşılamadığı için güvenlik birimlerine iletilmedi. Bu durum, platformların erken uyarı sistemi olarak kullanılması için veri gizliliği tartışmalarını da beraberinde getirdi.
Şirketlerin İnisiyatifinde Bildirimler
Yapay zeka platformları, suç amaçlı kullanımları önlemek adına çeşitli güvenlik mekanizmaları uyguluyor. ChatGPT gibi Gemini de bu tür kullanımları tespit etmek için çok katmanlı güvenlik protokolleri ile çalışıyor.
Gemini, gerçek zamanlı sorgu taramaları yaparak, silah talimatları, yasa dışı madde üretimi ve şiddet planlamaları gibi talepleri otomatik olarak reddediyor. Ayrıca, uzmanlar ve bağımsız denetçiler düzenli olarak riskli konuşmaları gözden geçiriyor.
Google, politikaları gereği, ciddi fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor.
Google'ın acil durum bilgilendirme talepleri hakkında sitesinde şu açıklama yer alıyor:
"Birinin hayatını veya fiziksel bütünlüğünü korumak için makul bir sebebimiz varsa, bomba tehditleri, okul saldırıları, adam kaçırma, intihar önleme ve kayıp kişilere dair vakalarda bilgilerimizi yetkililerle paylaşabiliriz. Ancak bu talepler her zaman geçerli yasalar ve politikalarımız çerçevesinde değerlendirilmektedir."
Mevcut düzenlemeler, teknoloji şirketlerinin genellikle suç sonrası veri paylaşımını kapsıyor. Ancak, suç oluşmadan önceki bildirimler şirketlerin inisiyatifine bırakılıyor.
Yorumlar (0)
Yorum Yaz
Henüz yorum yapılmamış. İlk yorumu siz yapın!