Haberler
Kişisel verilerinizi neden ChatGPT veya diğer AI sohbet robotlarıyla paylaşmamalısınız?
ChatGPT ve diğer AI sohbet robotlarının sizinle hemen hemen her konuda sohbet edebilecek etkileyici sohbet arkadaşları haline geldiği inkar edilemez.
Konuşma güçleri de son derece ikna edici olabilir; Kişisel bilgilerinizi paylaşma konusunda kendinizi güvende hissetmenizi sağladılarsa yalnız değilsiniz. Ama — flaş bir haber! – ekmek kızartma makinenle konuşmuyorsun. Bir yapay zeka sohbet robotuna söylediğiniz her şey bir sunucuda saklanabilir ve daha sonra yeniden ortaya çıkabilir; bu da onları doğası gereği riskli kılar.
Chatbotlar neden bu kadar riskli?
Sorun, Büyük Dil Modelleri (LLM’ler) çalıştıran şirketlerin ve bunlarla ilişkili sohbet robotlarının kişisel verilerinizi, esas olarak daha iyi botlar yetiştirmek için nasıl kullandıklarından kaynaklanıyor.
Filmi al Terminatör 2: Kıyamet Günü bir LLM’nin nasıl öğrendiğine bir örnek olarak. Filmde, Skynet’e karşı insan direnişinin gelecekteki lideri çocuk John Connor, Arnold Schwarzenegger’in canlandırdığı Terminatör’e, onu daha insani kılmak amacıyla “Hasta la vista baby” gibi kişisel sloganları öğretiyor.
Şunu söylemek yeterli ki, bu cümleleri öğreniyor ve en uygunsuz zamanlarda kullanıyor ki bu da oldukça komik.
Verilerinizin toplanması ve şirketler tarafından kendi yapay zeka modellerini güncellemek ve daha insani olmayı öğretmek için kullanılması daha az komik.
Dominic Bayley / IDG
OpenAI’nin şart ve koşulları, platformunu kullandığınızda bunu yapma hakkını özetlemektedir. Şöyle diyor: “Bize sağladığınız verileri modellerimizi geliştirmek için kullanabiliriz.” ChatGPT’nin ona söylediğiniz her şeyi – evet, her şeyi – kaydetmesinin nedeni budur. Yani, sohbet geçmişinizin kaydedilmesini önleyecek bir ayarı değiştirmenize olanak tanıyan chatbot’un yeni gizlilik özelliğini kullanmadığınız sürece.
Bunu yapmazsanız, finansal bilgileriniz, şifreleriniz, ev adresiniz, telefon numaranız veya kahvaltıda ne yediğiniz gibi ayrıntılar, bu ayrıntıları paylaşmanız halinde adil bir oyundur. Ayrıca yüklediğiniz dosyaları ve verdiğiniz geri bildirimleri de saklar.
ChatGPT’nin Şartlar ve Koşulları ayrıca, chatbot’un “Kişisel Bilgileri toplayabileceğini veya kimlik bilgilerini kaldırabileceğini ve toplanan bilgileri Hizmetlerimizin etkinliğini analiz etmek için kullanabileceğini” belirtir. Bu küçük bir ekleme ama chatbotun öğrendiği bir şeyin daha sonra halkın erişimine açılması ihtimalini ortaya çıkarıyor ki bu gerçekten rahatsız edici bir düşünce.
Neden umursamalısın?
Adil olmak gerekirse, AI sohbet robotu çalıştıran herhangi bir şirketin sakladığı kişisel bilgileri kötüye kullanma niyetinde olması pek olası değildir. Son yıllarda OpenAI, ChatGPT kullanıcılarına kişisel verilerin toplanması ve kullanılması konusunda güvence vermeyi amaçlayan açıklamalar yayınladı.
Örneğin, bu yılın Şubat ayında İtalya Veri Koruma Otoritesi (DPA) tarafından Avrupa Birliği Genel Veri Koruma Düzenlemeleri’nde (GDPR) yer alan hükümleri ihlal etmekle suçlandığında OpenAI, BBC’ye şunları söyledi: “Yapay zekamızın dünyayı öğrenmesini istiyoruz” , özel kişilerle ilgili değil.
Sonra şu: “İnsanlarla ilgili özel veya hassas bilgi taleplerini de reddeden ChatGPT gibi sistemlerimizi eğitirken kişisel verileri azaltmak için aktif olarak çalışıyoruz.”
Bu doğru olabilir ancak kullanıcı verilerinin ihlallere karşı güvende olduğunu garanti etmez. Bu türden bir ihlal, Mayıs 2023’te, bilgisayar korsanlarının ChatGPT’nin Redis kütüphanesindeki bir güvenlik açığından yararlanarak sohbet geçmişlerinde depolanan kişisel verilere erişmelerini sağladığı bir ihlalde meydana geldi.
Sızan kişisel bilgiler arasında isimler, sosyal güvenlik numaraları, iş unvanları, e-posta adresleri, telefon numaraları ve hatta sosyal medya profilleri yer alıyordu. OpenAI, güvenlik açığını düzelterek yanıt verdi ancak bu, verileri zaten çalınmış olan yaklaşık 101.000 kullanıcı için pek teselli olmadı.
Yapay zeka sohbet robotlarıyla ilgili gizlilik sorunları yaşayanlar yalnızca bireyler değil. Aslında şirketler de, kayda değer yüksek profilli veri sızıntılarının ortasında, gizli şirket verilerini gizli tutmak için çabalıyor. Böyle bir sızıntı, Samsung’un kendi mühendislerinin yanlışlıkla hassas kaynak kodunu ChatGPT’ye yüklediğini tespit etmesiyle keşfedildi.
Buna cevaben, Mayıs 2023’te şirket, ChatGPT ve diğer üretken yapay zeka sohbet robotlarının iş amacıyla kullanılmasını yasakladı. Bank of America, Citigroup ve JPMorgan gibi şirketler o zamandan beri aynı yolu izledi.
Farkındalık artıyor ama henüz ilk günler
Son zamanlarda hükümet ve endüstri düzeyinde yapay zeka sohbet robotlarının tehlikeleri konusunda artan bir farkındalık var ve bu da veri güvenliğinin sıkılaştırılması için umut verici bir işaret.
Geçtiğimiz yıl 30 Ekim’de ABD Başkanı Joe Biden, Yapay Zekanın Güvenli, Emniyetli ve Güvenilir Geliştirilmesi ve Kullanımına İlişkin Yönetici Kararnamesi’ni (ABD’de yapay zekanın kullanımına ilişkin temel ilkeleri özetleyen bir belge) imzaladığında ileriye yönelik büyük bir adım atıldı.
Öncelik noktalarından biri, “Yapay zeka sistemlerinin mahremiyete saygı duyması ve kişisel verileri koruması gerektiği” şartını koşuyor. Ancak bunun tam olarak nasıl uygulanacağı henüz görülmedi ve yapay zeka şirketleri tarafından yoruma açık olabilir.
Bu noktanın tam tersine, ABD’de, sahibinin izni olmadan veriler üzerinde yapay zeka eğitiminin herhangi bir tür telif hakkı ihlali olduğunu belirten açık bir yasanın hâlâ bulunmaması gerçeğidir. Bunun yerine, adil kullanım olarak kabul edilebilir; bu da tüketicilerin haklarını koruyacak sağlam hiçbir şeyin olmadığı anlamına gelir.
Daha sıkı bir şey elde edene kadar bireyler olarak en iyi savunma hattımız yine de aşırı paylaşım yapmamaktır. Bir AI sohbet robotuna güvenilir bir arkadaş yerine algoritma gibi davranarak, saç stiliniz veya kıyafet seçiminiz konusunda sizi ne kadar iltifat ederse etsin, en azından sizin hakkınızda bildiklerini sizin tarafınızdan gizli tutabilirsiniz.