ChatGPT’yi kullananların bir kısmının hassas bilgileri çok kolay bir yanılgı sonucunda sızmış ve uygulama kimi ülkelerde yasaklanmıştı. OpenAI, yapay zekanın güvenliği ve eserlerini nasıl inançlı tutmaya çalıştığı hakkında kamuoyuna açıklamalarda bulundu.
Bilgilendirmede Open AI, rastgele bir yeni sistemi halka tanıtılmadan evvel harici uzmanlar kullanarak titizlikle test ettiğini ve iyileştirmeler yapmak için insan geri bildirimi ile pekiştirici öğrenmeyi kullandığını belirtiyor. Şirket, son modeli GPT-4’ü piyasaya sürmeden evvel altı ay boyunca test ettiğini tez ediyor ve düzenleme daveti yapıyor:
“Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabi tutulması gerektiğine inanıyoruz. Bu cins uygulamaların benimsenmesini sağlamak için düzenlemeye muhtaçlık vardır ve bu tıp bir düzenlemenin alabileceği en âlâ biçim konusunda hükümetlerle faal olarak çalışıyoruz.”
OpenAI, titizlikle yürüttüklerini belirttiği kapsamlı araştırma ve testlere karşın laboratuvarda öğrenebileceklerinin hudutlu olduğunu, bu nedenle tüm faydalı yahut berbata kullanım yollarını varsayım edemediklerini belirtti.
YAŞ DOĞRULAMA ÖZELLİĞİ
DonanımHaber’de yer alan habere nazaran şirket ayrıyeten, 18 yaşından büyük yahut 13 yaşından büyük, ebeveyn onayı olan kullanıcıların hizmetlerine erişmesini sağlamak için doğrulama seçeneklerini değerlendirdiğini söyledi. İtalya’nın yasak kararında bir doğrulama seçeneğinin olmayışına da vurgu yapıldı.