ChatGPT, yüzeysel olarak bakıldığında bir sıra Amel için yararlı olabilecek bir araç üzere görünebilir, fakat ondan Kıymetli notları özetlemesini ya da çalışmanızda yanılgı olup olmadığını Denetim etmesini istemeden evvel, paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de öbür kullanıcılara verdiği cevaplar halinde Geri dönebileceğini hatırlamakta fayda var. En azından birtakım Samsung çalışanları, bunu en Sıkıntı yoldan öğrendi.
The Economist Korea’ya nazaran, Samsung’un yarı iletken kısmı mühendisleri bir müddettir ChatGPT’yi kullanıyorlar. Fakat bu süreçte çalışanların en az 3 Sefer gizli bilgileri ChatGPT’ye sızdırmış olduğu ortaya çıktı. Bir çalışanın ChatGPT’den hisli veritabanı kaynak kodunda yanılgı olup olmadığını Denetim etmesini istediği, bir başkasının kod optimizasyonu talep ettiği ve bir 3’üncüsünün de ChatGPT’ye kaydedilmiş bir toplantıyı aktararak tutanak oluşturmasını istediği bildirildi.
Raporlar, Samsung’un bu Emniyet yanlışlarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt yahut 1024 karakterlik metinle sınırlayarak gelecekteki mümkün sızıntıların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten Laf konusu 3 çalışan için soruşturma başlattığını ve emsal aksilikleri önlemek için kendi sohbet robotunu oluşturmak istediği söyleniyor.
Yorum Yok