ChatGPT ile neler konuştunuz? Google'da şu anda 100.000 konuşma herkese açık: Şirket sırlarından aşk dramlarına kadar.

ChatGPT ile yaptığınız en samimi veya en müstehcen sohbetin Google'da herkesin tek tıkla erişebileceği şekilde dolaştığını hayal edebiliyor musunuz? Binlerce ChatGPT kullanıcısı için bu kabus çoktan gerçek oldu. Yaklaşık 100.000 ifşa edilmiş sohbet arasında gizli sözleşme taslaklarından gönderilmemiş aşk mesajlarına kadar her şey var ; bu da bu dijital araçlarla nasıl ilişki kurduğumuza dair sessiz bir kanıt.
Sahne, insanların tüm dünyanın görebileceğinin farkında olmadan paylaşım yaptığı sosyal medyanın ilk günlerini anımsatıyor. Bu sefer tatil fotoğraflarından veya masum yorumlardan değil, birçok kişi için bir iş asistanı, duygusal itirafçı ve doğaçlama editör olarak işlev gören bir yapay zekayla etkileşimlerden bahsediyoruz . Kaçınılmaz soru şu: Kullanıcılar olarak sorumluluğumuz ne kadar, gizlilik vaat eden platformların sorumluluğu ise ne kadar?
Sızıntı, deneysel bir OpenAI özelliğindeki tasarım hatasını ortaya çıkarmakla kalmıyor, aynı zamanda insanların teknolojiye karşı davranışlarına dair rahatsız edici bir pencere açıyor: "Dijital kasasının" gerçekten güvenli olup olmadığını sorgulamadan, sırlarımızı ve önemli belgelerimizi bir algoritmaya emanet ediyoruz.
Yaklaşık 100.000 ChatGPT görüşmesi nasıl sızdırıldı?Hikaye, görünüşte zararsız bir özellikle başlıyor: ChatGPT'deki "paylaş" düğmesi. Birkaç gün öncesine kadar, herhangi bir kullanıcı, üçüncü taraflara göndermek üzere sohbetinin herkese açık bir bağlantısını oluşturabiliyordu . Bu bağlantılar, açık yapıları nedeniyle Google gibi arama motorları tarafından indekslenebiliyordu.
Sonuç, öngörülebilir bir olaylar zinciriydi. İlk olarak, bazı kullanıcılar hassas içerikli bağlantıları, bunların herkese açık olduğunun farkında olmadan paylaştı . Ardından Google, bu URL'leri tarayarak dizinine ekledi. Son olarak, araştırmacılar ve meraklı kişiler sohbetleri bulup derlemeye başladı ve yaklaşık 100.000 sohbetten oluşan devasa bir arşiv oluşturdu.
OpenAI, sızıntının büyüklüğünü doğruladı ve tepki gösterdi. Şirketin CISO'su (Baş Güvenlik Sorumlusu) Dane Stuckey, insanların yanlışlıkla kamuya açıklamak istemedikleri bilgileri paylaşmalarını önlemek için bu özelliği kaldırdıklarını belirtti. Ayrıca, arama motorlarında bir dizin kaldırma süreci başlattılar , ancak bu ifşayı tamamen tersine çevirmek için artık çok geç: üçüncü taraflar içeriği toplu halde indirdi.
Hangi tür bilgiler ifşa edildi?Veri seti, kullanıcıların ChatGPT'ye yönelik kullanımlarının çeşitliliğini ortaya koyuyor. Dizine eklenen konuşmalar arasında şunlar yer alıyor:
- OpenAI ve diğer şirketlere ait olduğu iddia edilen gizlilik anlaşmalarının kopyaları.
- İşletme sahiplerinin talep ettiği, şirket isimlerini ve işletme detaylarını içeren taslak sözleşmeler.
- Eski sevgiliye mektuplar veya romantik ilişkilerle ilgili ikilemler gibi duygusal ve kişisel danışmanlıklar.
- LinkedIn gönderileri yazmak veya metinleri düzeltmek gibi daha sıradan istekler.
Mantıklı ve sıradan olanın bu şekilde bir araya gelmesi, gizlilik uzmanlarının yıllardır uyardığı bir olguyu gözler önüne seriyor: Ne kadar zararsız görünürse görünsün, kapsamı açıkça belirtilmediği takdirde herhangi bir paylaşım özelliği, özel verilerin sızdırılmasına yol açabilir.
Gizlilik ve güvenlik etkileriBu konuşmaların görünürlüğü birkaç kritik sorunu gündeme getiriyor. İlki, paylaşılan sorumluluk. OpenAI bir katılım sistemi sunuyordu, ancak birçok kullanıcı muhtemelen "paylaş" kutusunu işaretlemenin küresel görünürlük anlamına geldiğini anlamamıştı . Dijital çağda algı ve gerçeklik arasındaki bu uçurum oldukça yaygın: Gizliliğin norm olduğunu varsayıyoruz, oysa gerçekte her çevrimiçi etkileşim iz bırakıyor.
Ayrıca, üçüncü tarafların veri setini zaten indirmiş olması kalıcı bir risk oluşturur. OpenAI, Google'ın bağlantıları kaldırmasını sağlasa bile , yerel kopyalar forumlarda, sızdırılan veritabanlarında ve hatta karanlık ağda dolaşabilir. Rakip şirketler, saldırganlar veya meraklı kişiler, kişisel ve kurumsal bilgiler içeren materyallere erişebilir.
Son olarak, sızıntı, yapay zekaya uyarlanmış dijital okuryazarlığa olan ihtiyacı pekiştiriyor. ChatGPT'yi, işlevlerinin mekaniğini anlamadan güvenli bir kişisel asistan olarak kullanmak, bireyleri ve şirketleri itibar ve yasal risklere maruz bırakıyor.
Yapay zeka ve gizliliğin geleceğine dair dersler100.000 sohbetin ifşa edildiği bölüm, teknoloji ekosistemi için bir uyarı niteliğinde. Yapay zeka platformlarının paylaşım seçeneklerinin nasıl çalıştığı konusunda daha şeffaf olmaları ve muhtemelen bunları varsayılan gizlilik ilkesini göz önünde bulundurarak tasarlamaları gerekecek .
Kullanıcılar için ders iki yönlüdür. Birincisi, gizli verilerin korunmasını açık güvenlik garantileri olmadan düşüncesizce bir bulut sistemine devretmeyin. İkincisi, herhangi bir "paylaş" veya "kamuya açıkla" düğmesinin göründüğünden daha kapsamlı olabileceğini unutmayın .
eleconomista