ChatGPT’yi kullananların bir kısmının hassas bilgileri çok kolay bir kusur sonucunda sızmış, ve uygulama kimi ülkelerde yasaklanmıştı. OpenAI, yapay zekanın güvenliği ve eserlerini nasıl inançlı tutmaya çalıştığı hakkında kamuoyuna açıklamalarda bulundu.
Bilgilendirmede Open AI, rastgele bir yeni sistemi halka tanıtılmadan evvel harici uzmanlar kullanarak titizlikle test ettiğini ve iyileştirmeler yapmak için insan geri bildirimi ile pekiştirici öğrenmeyi kullandığını belirtiyor. Şirket, son modeli GPT-4’ü piyasaya sürmeden evvel altı ay boyunca test ettiğini tez ediyor ve düzenleme daveti yapıyor:
“Güçlü yapay zeka sistemlerinin titiz güvenlik değerlendirmelerine tabi tutulması gerektiğine inanıyoruz. Bu tıp uygulamaların benimsenmesini sağlamak için düzenlemeye gereksinim vardır ve bu tıp bir düzenlemenin alabileceği en düzgün biçim konusunda hükümetlerle etkin olarak çalışıyoruz.”
OpenAI, titizlikle yürüttüklerini belirttiği kapsamlı araştırma ve testlere karşın laboratuvarda öğrenebileceklerinin sonlu olduğunu, bu nedenle tüm faydalı yahut berbata kullanım yollarını varsayım edemediklerini belirtti.
Yaş doğrulama özelliği
DonanımHaber’in aktardığına nazaran şirket ayrıyeten, 18 yaşından büyük yahut 13 yaşından büyük, ebeveyn onayı olan kullanıcıların hizmetlerine erişmesini sağlamak için doğrulama seçeneklerini değerlendirdiğini söyledi. İtalya’nın yasak kararında bir doğrulama seçeneğinin olmayışına da vurgu yapıldı.
Open AI, yeni modeli GPT-4’ün nefret dolu, taciz ve şiddet içeren içerik taleplerine cevap verme mümkünlüğünün yüzde 82 daha az olduğunu söylüyor. Blog yazısında GPT-4’ün gerçeğe dayalı içerik üretme mümkünlüğünün GPT-3.5’e nazaran yüzde 40 daha fazla olduğu da vurgulanıyor. Lakin OpenAI, çıktıların her vakit yanlışsız olmayabileceği konusunda olabildiğince şeffaf olmaya çalıştıklarını da söylüyor.