Alman veri koruma otoritelerinin ortak organı olan Veri Koruma Konferansı, sonunda üretken yapay zekaya nasıl yaklaşılacağına dair bir “rehber kılavuz” yayınladı. Ancak şirketlere ve yetkililere neyin yardım etmesi gerektiği belirsizliğini koruyor ve hatta bazı yerlerde onlar için çözülemez sorunlar bile yaratabiliyor.
Duyuru
Yönergeler pek çok açıdan genel olmaya devam ediyor ve yöneticilerin GDPR uyumluluğuna ulaşmalarına yardımcı olması pek olası değil. Ancak her şeyden önce belge, istemeden de olsa, GDPR gereklilikleri ile yapay zeka dil modellerinin (Büyük Dil Modelleri, LLM'ler) teknik özellikleri arasındaki neredeyse çözülemez çelişkilerin nerede bulunduğunu gösteriyor.
(Resim: Editör Jo Bager'in yorumlama sorununa ilişkin podcast'i)
C't veri koruma podcast'i Interpretation Matter Bölüm 109'da, editör Holger Bleich ve Haberler Publishing avukatı Joerg Heidrich oryantasyon yardımını ele alıyor ve bazı verilerin veri koruma denetimiyle karşı karşıya kaldığı neredeyse çözümsüz ikilemi anlatıyor. Jo Bager senin yanında. Bilgisayar bilimcisi neredeyse 30 yıldır c't'in editör ekibinde çalışıyor ve yapay zekanın evrimine başından beri eşlik ediyor. Bager, DSK'nın hukuki değerlendirmelerinin teknik olarak sınıflandırılmasına yardımcı oluyor.
Geçmiş gerçeklik
Özellikle tartışmalı: 11.1. maddede. DSK, rehberliğinde kontrolörlerden “veri sahiplerinin GDPR'nin 16. Maddesi uyarınca düzeltme ve GDPR'nin 17. Maddesi uyarınca silme haklarını kullanabilmelerini” talep etmektedir. DSK, kişisel verilerin doğruluğuna ilişkin veri koruma ilkesinde ısrar etmektedir. Ancak bu teknik gerçeği göz ardı ediyor: Yüksek Lisans, bilgi alışverişinin yapılabildiği bir veritabanı değildir.
Avusturyalı veri koruma aktivisti Max Schrems ve onun kar amacı gütmeyen kuruluşu noyb da aynı çizgiyi takip etti: Nisan ayının sonunda noyb, ilgili bir taraf adına Avusturya Veri Koruma Kurumu'na Açık AI'ya karşı şikayette bulundu. Şikayetçinin ChatGPT tarafından sağlanan doğum tarihi yanlış olmasına rağmen OpenAI, onun düzeltme veya silme talebini reddetti; gerekçe şuydu.
Open AI, verileri düzeltmenin mümkün olmadığını söyledi. Noyb veri koruma avukatı Maartje de Graaf, “Bir sistem doğru ve şeffaf sonuçlar sağlayamıyorsa, kişisel veri oluşturmak için kullanılmamalıdır. Teknoloji yasal gerekliliklere uygun olmalı, tersi değil” dedi.
109.Bölüm:
Önceki tüm bölümleri burada bulabilirsiniz:
(yukarı kaldırdı)
Haberin Sonu
Duyuru
Yönergeler pek çok açıdan genel olmaya devam ediyor ve yöneticilerin GDPR uyumluluğuna ulaşmalarına yardımcı olması pek olası değil. Ancak her şeyden önce belge, istemeden de olsa, GDPR gereklilikleri ile yapay zeka dil modellerinin (Büyük Dil Modelleri, LLM'ler) teknik özellikleri arasındaki neredeyse çözülemez çelişkilerin nerede bulunduğunu gösteriyor.

(Resim: Editör Jo Bager'in yorumlama sorununa ilişkin podcast'i)
C't veri koruma podcast'i Interpretation Matter Bölüm 109'da, editör Holger Bleich ve Haberler Publishing avukatı Joerg Heidrich oryantasyon yardımını ele alıyor ve bazı verilerin veri koruma denetimiyle karşı karşıya kaldığı neredeyse çözümsüz ikilemi anlatıyor. Jo Bager senin yanında. Bilgisayar bilimcisi neredeyse 30 yıldır c't'in editör ekibinde çalışıyor ve yapay zekanın evrimine başından beri eşlik ediyor. Bager, DSK'nın hukuki değerlendirmelerinin teknik olarak sınıflandırılmasına yardımcı oluyor.
Geçmiş gerçeklik
Özellikle tartışmalı: 11.1. maddede. DSK, rehberliğinde kontrolörlerden “veri sahiplerinin GDPR'nin 16. Maddesi uyarınca düzeltme ve GDPR'nin 17. Maddesi uyarınca silme haklarını kullanabilmelerini” talep etmektedir. DSK, kişisel verilerin doğruluğuna ilişkin veri koruma ilkesinde ısrar etmektedir. Ancak bu teknik gerçeği göz ardı ediyor: Yüksek Lisans, bilgi alışverişinin yapılabildiği bir veritabanı değildir.
Avusturyalı veri koruma aktivisti Max Schrems ve onun kar amacı gütmeyen kuruluşu noyb da aynı çizgiyi takip etti: Nisan ayının sonunda noyb, ilgili bir taraf adına Avusturya Veri Koruma Kurumu'na Açık AI'ya karşı şikayette bulundu. Şikayetçinin ChatGPT tarafından sağlanan doğum tarihi yanlış olmasına rağmen OpenAI, onun düzeltme veya silme talebini reddetti; gerekçe şuydu.
Open AI, verileri düzeltmenin mümkün olmadığını söyledi. Noyb veri koruma avukatı Maartje de Graaf, “Bir sistem doğru ve şeffaf sonuçlar sağlayamıyorsa, kişisel veri oluşturmak için kullanılmamalıdır. Teknoloji yasal gerekliliklere uygun olmalı, tersi değil” dedi.
109.Bölüm:
Önceki tüm bölümleri burada bulabilirsiniz:
(yukarı kaldırdı)
Haberin Sonu