Sosyal Medya

Samsung

Üç Samsung çalışanının hassas verileri ChatGPT’ye sızdırdığı bildirildi

Öyle ki çalışanlardan birinin sohbet robotundan, katıldığı toplantıdan notlar oluşturmasını istediği söyleniyor.Görüntüde merak uyandıran şekliyle bile ChatGPT, bir dizi tanımlanmış iş görevi için yararlı olabilecek faydalı araç gibi görünebilir. Ancak, chatbot'tan önemli notları özetlemesini veya çalışmanızı hatalara karşı kontrol etmesini istemeden önce, ChatGPT ile paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verilen yanıtlarda ortaya çıkabileceğini "artık" hatırlamakta fayda var.

Üç Samsung çalışanının hassas verileri ChatGPT’ye sızdırdığı bildirildi

Öyle ki çalışanlardan birinin sohbet robotundan, katıldığı toplantıdan notlar oluşturmasını istediği söyleniyor.

Görüntüde merak uyandıran şekliyle bile ChatGPT, bir dizi tanımlanmış iş görevi için yararlı olabilecek faydalı araç gibi görünebilir. Ancak, chatbot’tan önemli notları özetlemesini veya çalışmanızı hatalara karşı kontrol etmesini istemeden önce, ChatGPT ile paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verilen yanıtlarda ortaya çıkabileceğini “artık” hatırlamakta fayda var.

Bu, birkaç Samsung çalışanının gizli bilgileri chatbot ile paylaşmadan önce muhtemelen farkında olması gereken bir şeydi.

The Economist Korea‘ya göre (Mashable tarafından tespit edilip yayınlandığına göre), Samsung’un yarı iletken bölümü mühendislerin ChatGPT’yi kullanmasına izin vermeye başladıktan kısa bir süre sonra, çalışanlar en az üç kez gizli bilgileri bu bölüme sızdırdı. Makaleye göre bir çalışanın, chatbot’tan hassas veritabanı kaynak kodunu hatalara karşı kontrol etmesini istediği, başka bir kod optimizasyonu talep ettiği ve üçüncü bir çalışanın ise kayıtlı bir toplantıyı ChatGPT’ye kayıt ettirdiği bildirildi.

Raporlar, güvenlik hatalarını öğrendikten sonra Samsung’un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıca söz konusu üç çalışanı araştırdığı ve benzer aksilikleri önlemek için kendi chatbot’unu oluşturduğu söyleniyor.

ChatGPT’nin veri politikası, kullanıcılar açıkça devre dışı bırakmadıkça, modellerini eğitmek için istemlerini kullandığını belirtiyor zaten. Chatbot’un sahibi OpenAI bile kullanıcıları, “geçmişinizden belirli istemleri silemediği için, kullanıcıları sohbetlerde ChatGPT ile gizli bilgileri paylaşmamaya davet ediyor. ChatGPT’de kişisel olarak tanımlayıcı bilgilerden kurtulmanın tek yolu ise hesabınızı silmekten geçiyor.

ChatGPT ile birlikte Alibaba Cloud’unda “Tongyi Qianwen” isimli benzer bir projenin testlerini başlattığını hemen belirtelim. Yapay zeka savaşlarının başladığına şahit oluyoruz. Bakalım bizleri neler bekliyor.