Bazı gruplar bu hafta federal hükümeti uyararak, yapay zekanın artan kullanımının azınlıklar ve engelliler için muhtemelen önyargılı ve ayrımcı sonuçlara yol açacağı konusunda uyardı. Ticaret Departmanı liderliğindeki kurumlar arası bir grup olan Ulusal Yapay Zeka Danışma Komitesi, Salı günü politika yapıcıları hükümetin AI kullanımını en iyi şekilde nasıl yönetebileceği konusunda bilgilendirmeyi amaçlayan çevrimiçi bir halka…
Bazı gruplar bu hafta federal hükümeti uyararak, yapay zekanın artan kullanımının azınlıklar ve engelliler için muhtemelen önyargılı ve ayrımcı sonuçlara yol açacağı konusunda uyardı.
Ticaret Departmanı liderliğindeki kurumlar arası bir grup olan Ulusal Yapay Zeka Danışma Komitesi, Salı günü politika yapıcıları hükümetin AI kullanımını en iyi şekilde nasıl yönetebileceği konusunda bilgilendirmeyi amaçlayan çevrimiçi bir halka açık oturum düzenledi. Tanıkların çoğu panelistlere, temsil ettikleri insanların en büyük korkularının önyargı ve ayrımcılık olduğunu söyledi.
NAACP’de politika ve yasama işlerinden sorumlu başkan yardımcısı Patrice Willoughby, panelistlere teknolojinin halihazırda seçmenleri haklarından mahrum bırakmak ve yanıltmak için bir araç olarak kullanıldığını söyledi ve grubunun aynı nedenle yapay zeka konusunda endişelendiğini söyledi.
“Bu bağlamda, AI’nın farklı platformlarda yükselişi ve kullanımı hakkında büyük endişelerimiz var” dedi. “AI’nın yükselişi ve kullanım kolaylığı gerçekten bizi büyük endişelendiriyor.”
BEYAZ SARAY SÖYLEDİ
Biden yönetiminden bu hafta, Başkan Yardımcısı Harris’in liderliğini yaptığı bir alan olan yapay zeka politikalarının sonuçlarda “eşitlik” sağlayacak şekilde düzenlenmesini sağlaması istendi. (Getty Images)
Medeni ve İnsan Hakları Liderlik Konferansı’nda medeni haklar konularında çalışan Frank Torres, panele hükümetin sorumluluk üstlenmesi ve AI sistemlerinin “eşitliği ve medeni hakları” teşvik edecek şekilde geliştirilmesini ve kullanılmasını sağlamak için mekanizmalar oluşturması gerektiğini söyledi.
“Bu teknolojinin tam potansiyelini gerçekleştirmek için, gerçekten önyargıdan arınmış olduğundan ve ayrımcı sonuçlara yol açmadığından emin olmalıyız” dedi. “Eşitlik ve medeni haklar merkezli olmalıdır.”
Birkaç gözlemci, yapay zekanın önyargılı veri kümeleri kullandığı için ayrımcı sonuçlar yaratma potansiyeline sahip olduğu konusunda uyardı. “Kötü verilerin” kullanılması, AI sistemlerinin kredileri reddetmesine veya bu önyargıyı sürdüren başka kararlar almasına yol açabilir.
BALONLAMA YAPAY YABANCI YÜZ TANIMA ENDÜSTRİSİ, YANLILIK VE GİZLİLİK KONUSUNDA ENDİŞELER YARATIYOR: ‘KİMLİĞİNİZ OLUŞUYOR’
Biden yönetimi ve Kongre yapay zekanın nasıl düzenleneceğini inceliyor ve Beyaz Saray ilk harekete geçmeye hazır görünüyor. (Getty Images)
Danışma komitesi tartışmasında, Ulusal Adil Konut İttifakı Başkanı ve CEO’su Lisa Rice, geçmiş teknolojinin, yapay zekayı düzenlerken hükümetin önyargıya karşı dikkatli olması gereken bir şey olduğunu gösterdiğini söyledi.
“Analiz ettiğimiz her algoritmik sistem – kredi puanlama sistemleri, riske dayalı fiyatlandırma, otomatik sigortalama, sigorta puanlama, dijital pazarlama, kiracı tarama seçimi, yüz tanıma, otomatik değerleme ve diğer modeller – önyargı oluşturuyor ve tüketicilere anlatılmamış zararlar veriyor.” dedi. “Makineler basitçe insan önyargısını taklit etti ve yerini aldı.”
Hispanik Teknoloji ve Telekomünikasyon Ortaklığı ulusal programlar direktörü JudeAnne Health, grubunun “mevcut eşitsizlikleri şiddetlendirebilecek” önyargılı verilere dayalı yapay zeka konusunda endişeli olduğunu söyledi. Doğrudan önyargıyla mücadeleyi hedeflemesi gereken federal hükümet tarafından sıkı bir gözetim yapılmasını önerdi.
“Bu gözetim, çeşitli paydaş gruplarını, geçmişleri, dilleri, eğitimleri içeriyor mu?” diye sordu. “Sadece bilim adamları değil, sosyologlar, topluluk üyeleri.”
AI TEHDİTİNİ NASIL DESTEKLEYEBİLİRSİNİZ? AVUKATLARI BOŞA BIRAKIN
Asian Americans Advancing Justice’in kıdemli direktörü Emily Chi, grubunun “verilere zaten gömülü” olan ayrımcılıktan da endişe duyduğunu söyledi. AI’daki bir önyargı örneği sorulduğunda Chi, bazı içerik moderasyon sistemlerinin Asyalı Amerikalılar için ayrımcı veya “zararlı” içeriği kaldırmakta başarısız olduğunu ve bu tür gözetimlerin düzeltilmesini sağlamak için sistemlerin yürürlükte olması gerektiğini söyledi.
Chi, “Toplumumuzda en savunmasız, en çok baskı gören insanlara doğrudan gitmek ve bu teknolojilerin onların günlük yaşam deneyimlerini nasıl etkilediğini anlamak” dedi.
Yapay zeka daha sık kullanıldığından, ChatGPT gibi üretken yapay zeka, önyargılı sonuçlarla ilgili korkuları artırdı. (REUTERS/Dado Ruvic/İllüstrasyon)
Başka bir tanık, hükümetin AI’nın engelli insanlara nasıl ayrımcılık yapabileceğine dikkat etmesi gerektiğini söyledi.
Başkanı ve CEO’su Maria Town, “Teknolojinin, yapay zeka da dahil olmak üzere, en başından erişilebilir ve engelsiz olacak şekilde inşa edilmesi durumunda, hayatın her alanında hayata geçirilen engelli insanlar için teknolojinin tam potansiyelini göreceğiz” dedi. Amerikan Engelliler Derneği.
“Birçok kişi, otomatikleştirilmiş istihdam karar araçlarının, insan unsuru ortadan kaldırıldığı için önyargıdan arınmış olduğunu varsaysa da, AAPD’de, yapay zeka tabanlı araçların onları yapan insanların ve bu araçların var olduğu daha geniş toplumun tercihlerini yansıttığını defalarca gördük. dedi.
FOX HABER UYGULAMASINI İNDİRMEK İÇİN TIKLAYINIZ
Danışma komitesi bir avuç duruşma düzenledi ve önümüzdeki hafta Biden yönetiminin yapay zekayı ne zaman ve nasıl düzenleyeceğini belirleme sürecini besleyecek girdileri toplamayı amaçlayan birkaç duruşma daha yapacak. Daha bu hafta Beyaz Saray, AI için federal kurallar belirlemeye yönelik birkaç çabanın önümüzdeki birkaç hafta içinde geleceğini söyledi ve Kongre ayrıca AI’yı nasıl düzenleyeceğini inceliyor.
Pete Kasperowicz, Fox News Digital’de siyaset editörüdür.
Henüz yorum yapılmamış.
Benzer HaberlerReklam & İşbirliği: [email protected]
Yorum Yap