ChatGPT gibi sohbet robotları bizim hakkımızda ne biliyor ve bunu kiminle paylaşıyorlar?
Yapay zeka sohbet botları ( sohbet robotu ), teknoloji standartlarına göre nispeten eskidir. Ancak OpenAI’nin ChatGPT’si, Microsoft’un Bing’i ve Google’ın Bard liderliğindeki yapay zekayı tam anlamıyla ortaya koyan son çalışmalar, her zaman olumlu nedenlerle olmasa da önceki örneklerden çok daha yetenekli olduklarını kanıtlıyor.
AI geliştirmedeki son atılımlar, yanlış bilgi, yanlış bilgi, intihal ve berbat makine yapımı yazılımlar hakkında endişeleri zaten artırdı.Üretken yapay zekanın ortalama bir internet kullanıcısının mahremiyeti için nasıl bir sorun oluşturabileceği sorusunun yanıtı, uzmanlara göre büyük ölçüde bu botların nasıl eğitildiği ve onlarla ne kadar etkileşim kurmayı planladığımızla ilgili.
AI sohbet botları ve Ortak Tarama
Yapay zeka sohbet robotları, insan benzeri etkileşimleri taklit etmenin değerli bir parçasıdır. Büyük ölçüde Common Crawl gibi depolardan türetilen veriler üzerinde eğitilmiştir. Common Crawl, yıllar boyunca petabaytlarca veri toplayarak açık web’i taradı. Stanford’da bilgisayar bilimi alanında doktora öğrencisi ve Microsoft Research’te eski yapay zeka asistanı Megha Srivastava, “ Bu modeller, internette halka açık verilerin büyük veri kümeleri üzerinde eğitilir.” diyor. ChatGPT ve Bard, Common Crawl’ın bilgilerinin “filtrelenmiş” bir bölümünü kullanmasına rağmen, modelin devasa boyutu ” birisinin bilgileri kapsamlı bir şekilde incelemesi ve sterilize etmesi için“İmkansız kılıyor.
Ortalama bir kullanıcının erişiminin zor olduğu ve internetin ücra köşelerinde yer alan dikkatsizce oluşturulmuş veya düşük güvenlikli bilgilerin bir eğitim setine fark edilmeden yerleştirilmesi ve gelecekte chatbot tarafından tekrarlanması mümkündür. Ve bir botun birine gerçek bağlantı bilgisi vermesi kesinlikle imkansız değil. Bloomberg köşe yazarı Dave Lee, Twitter’da birisi ChatGPT’den şifreli mesajlaşma platformu Signal’de sohbet etmesini istediğinde, tam gerçek telefon numarasını verdiğini bildirdi . Bu tür bir etkileşimin aşırı olması muhtemel olsa da, bu öğrenme modellerinin erişebildiği bilgilerin dikkate değer olduğunu vurguluyor.
Ayrıca bu chatbotlar, onlara sağladığınız verileri öğrenme sürecine dahil edebilir. Yani onunla bir veri paylaştığınızda o da bu bilgiyi başka bir kişiye getirebilir. Tıpkı Samsung çalışanlarının başına gelenler gibi…
SANS Enstitüsü güvenlik organizasyonundan David Holzer, Engadget’a “ OpenAI’nin sağlık bilgileri gibi belirli bilgileri toplamak ve modellerini eğitmek için bireylere atfetmek istemesi pek olası değildir.dedi ve ekledi: “ Ama yanlışlıkla orada olabilir mi? Kesinlikle…”
Kısacası, yapay zeka chatbot’ları hakkımızda açık bilgiler toplayabilir ve onlarla paylaştığımız bilgileri kendi eğitimleri için kullanabilir. Bu da gösteriyor ki bu botları kullanan herkes şans eseri ya da bilinçli olarak hakkımızdaki verilere ulaşıyor.
Open AI, ChatGPT’de veri gizliliğini korumak için hangi önlemleri aldığını veya eğitim setlerine yerleştirilmiş olabilecek kişisel olarak tanımlanabilir bilgileri nasıl ele aldığını açıklamasa da, ChatGPT’nin kendisi ” kullanıcıların gizliliğini ve kişisel bilgilerini koruyan etik ve yasal standartları takip edecek şekilde programlanmıştır.” Ve ” (kendisine) sağlanmadıkça kişisel bilgilere erişimi yoktur.” diyor.
Google, kişisel olarak tanımlanabilir bilgilerin sohbetler sırasında paylaşılmasını önlemek için benzer şekilde bir “ozan” politikası uygulamıştır. parmaklıklar sahip olduğunu söylüyor. Bard’ın belirli bir gizlilik politikası yoktur ve bunun yerine diğer Google yapıları tarafından paylaşılan kapsamlı gizlilik belgelerini kullanır.