Hiçbir araç mükemmel değildir. Bu nedenle profesyonellerin, araçlarla verimli bir şekilde çalışabilmeleri için, araçlarının güçlü ve zayıf yönlerini tam olarak bilmeleri gerekir. Bu hem akülü vidalama makineleri hem de AI modelleri için geçerlidir. İşyerinde bir tane kullanmadan önce ne yapabileceğini, bana nerede yardımcı olabileceğini, hangi sorularda bana saçmalık söyleyeceğini bilmem gerekiyor. Yapay zekayı değerlendirmeniz gerekiyor ve yeni bir çalışanın deneme süresi gibi bu da birkaç hafta sürebilir.
Duyuru
1971 doğumlu Editör Hartmut Gieselmann, 2001'den beri c't ile çalışıyor. Uygulamalar, Veri Koruma ve İnternet departmanına başkanlık ediyor ve diğer konuların yanı sıra tıbbi BT, ağ politikası ve veri koruma alanlarındaki güncel konularla ilgileniyor.
Ancak tam da bu testlerin yapay zeka modelleriyle şu anda pek mümkün olmadığı görülüyor. On binlerce kıyaslama mevcut olmasına rağmen, çoğunlukla Anglo-Amerikan bölgesinden olmak üzere yalnızca bireysel bilgi sorularını test ediyorlar. Sonuçlarının pratikle pek alakası yok. Ve üreticiler, modellerini nasıl ve hangi bilgilerle eğittikleri hakkında çok az bilgi veriyorlar. Altına hücum zamanlarında herkes altın damarı ve kazma modlarını kendine saklamayı tercih eder. Aksi takdirde, bir rakip modeli hızlı bir şekilde kopyalayabilir veya bir yazar, materyaliyle yasa dışı eğitim verdiği için ona dava açabilir.
Önümüzdeki aylarda, sağlayıcılar yapay zeka hizmetlerini aracı adı verilen farklı modellerle donatmaya başladıkça sorun daha da kötüleşecek. Bunlar daha sonra kullanıcı farkına varmadan değiştirilir; izlenecek sürüm numarası yok. Ancak bir yapay zeka yarın aynı sorulara bugün olduğundan farklı cevaplar verirse, onu değerlendirmek imkansızdır çünkü sürekli onun peşindesinizdir.
Sonraki AB düzenlemesi
AB şimdi dikkatleri üzerine çevirdi ve üreticileri gelecek yıl kara kutuları hakkında bilgi sağlamaya zorlamak istiyor. Yapay zeka sağlayıcıları bunu istemediği için, onlar ve onların lobicileri kamuoyunda gürültü yapıyor: Çok fazla düzenleme yapanlar geleceği kaybedecek, tenor.
Ancak sadece bir avuç yatırımcının yapay zeka patlamasından faydalanmasını istemiyorsak daha fazla şeffaflığa ihtiyacımız var. Pahalı makinelerin aslında neyi yapıp neyi yapamadığını değerlendirebilmeniz gerekiyor. Yapay zeka ile çalışan tüm son kullanıcıların çıkarları açısından, AB düzenleyicileri kendilerini yumuşatmamalı ve güvenilir bilgi ve içgörüler konusunda ısrarcı olmalıdır: aksi takdirde gelecek kasvetli olacaktır.
(cadı)
Duyuru

1971 doğumlu Editör Hartmut Gieselmann, 2001'den beri c't ile çalışıyor. Uygulamalar, Veri Koruma ve İnternet departmanına başkanlık ediyor ve diğer konuların yanı sıra tıbbi BT, ağ politikası ve veri koruma alanlarındaki güncel konularla ilgileniyor.
Ancak tam da bu testlerin yapay zeka modelleriyle şu anda pek mümkün olmadığı görülüyor. On binlerce kıyaslama mevcut olmasına rağmen, çoğunlukla Anglo-Amerikan bölgesinden olmak üzere yalnızca bireysel bilgi sorularını test ediyorlar. Sonuçlarının pratikle pek alakası yok. Ve üreticiler, modellerini nasıl ve hangi bilgilerle eğittikleri hakkında çok az bilgi veriyorlar. Altına hücum zamanlarında herkes altın damarı ve kazma modlarını kendine saklamayı tercih eder. Aksi takdirde, bir rakip modeli hızlı bir şekilde kopyalayabilir veya bir yazar, materyaliyle yasa dışı eğitim verdiği için ona dava açabilir.
Önümüzdeki aylarda, sağlayıcılar yapay zeka hizmetlerini aracı adı verilen farklı modellerle donatmaya başladıkça sorun daha da kötüleşecek. Bunlar daha sonra kullanıcı farkına varmadan değiştirilir; izlenecek sürüm numarası yok. Ancak bir yapay zeka yarın aynı sorulara bugün olduğundan farklı cevaplar verirse, onu değerlendirmek imkansızdır çünkü sürekli onun peşindesinizdir.
Sonraki AB düzenlemesi
AB şimdi dikkatleri üzerine çevirdi ve üreticileri gelecek yıl kara kutuları hakkında bilgi sağlamaya zorlamak istiyor. Yapay zeka sağlayıcıları bunu istemediği için, onlar ve onların lobicileri kamuoyunda gürültü yapıyor: Çok fazla düzenleme yapanlar geleceği kaybedecek, tenor.
Ancak sadece bir avuç yatırımcının yapay zeka patlamasından faydalanmasını istemiyorsak daha fazla şeffaflığa ihtiyacımız var. Pahalı makinelerin aslında neyi yapıp neyi yapamadığını değerlendirebilmeniz gerekiyor. Yapay zeka ile çalışan tüm son kullanıcıların çıkarları açısından, AB düzenleyicileri kendilerini yumuşatmamalı ve güvenilir bilgi ve içgörüler konusunda ısrarcı olmalıdır: aksi takdirde gelecek kasvetli olacaktır.
(cadı)