Carane Njupuk Pendekatan Mindful kanggo AI Cut Down ing Biased Data Sets

Dataset Bias lan AI Etika

Solusi sing didhukung AI mbutuhake set data supaya efektif. Lan nggawe set data kasebut kebak masalah bias implisit ing tingkat sing sistematis. Kabeh wong nandhang bias (sadar lan ora sadar). Bias bisa maneka warna: geografis, linguistik, sosio-ekonomi, seksis, lan rasis. Lan bias sistematis kasebut dibakar dadi data, sing bisa nyebabake produk AI sing terus-terusan lan nggedhekake bias. Organisasi butuh pendekatan sing ati-ati kanggo nyuda bias sing nyusup menyang set data.

Conto Sing Nggambarake Masalah Bias

Salah sawijining conto sing penting babagan bias nyetel data iki sing entuk akeh pers negatif ing wektu kasebut yaiku solusi maca resume sing luwih milih calon lanang tinimbang wanita. Iki amarga set data alat rekrutmen wis dikembangake nggunakake resume saka dekade kepungkur nalika mayoritas pelamar wis lanang. Data kasebut bias lan asil kasebut nuduhake bias kasebut. 

Conto liyane sing umum dilapurake: Ing konferensi pangembang Google I/O taunan, Google nuduhake pratinjau alat bantu dermatologi sing didhukung AI sing mbantu wong ngerti apa sing kedadeyan karo masalah sing ana gandhengane karo kulit, rambut, lan kuku. Asisten dermatologi negesake kepiye AI berkembang kanggo mbantu perawatan kesehatan - nanging uga nyorot potensial bias nyerbu AI amarga kritik manawa alat kasebut ora cukup kanggo wong sing duwe warna.

Nalika Google ngumumake alat kasebut, perusahaan kasebut nyathet:

Kanggo mesthekake yen kita mbangun kanggo kabeh wong, model kita nyathet faktor kayata umur, jinis, ras, lan jinis kulit - saka kulit pucet sing ora semu coklat nganti kulit coklat sing arang kobong.

Google, Nggunakake AI kanggo mbantu nemokake jawaban kanggo kondisi kulit sing umum

Nanging artikel ing Wakil ngandika Google gagal nggunakake set data inklusif:

Kanggo ngrampungake tugas kasebut, para peneliti nggunakake set data latihan 64,837 gambar saka 12,399 pasien sing ana ing rong negara. Nanging saka ewonan kondisi kulit sing digambarake, mung 3.5 persen saka pasien karo jinis kulit Fitzpatrick V lan VI-sing makili kulit coklat lan kulit coklat utawa ireng. 90 persen database kasebut dumadi saka wong sing duwe kulit putih, kulit putih sing luwih peteng, utawa kulit coklat entheng, miturut panaliten kasebut. Minangka asil saka sampling bias, dermatologists ngandika app bisa mungkasi munggah over- utawa under-diagnosa wong sing ora putih.

Wakil, Aplikasi Dermatologi Anyar Google Ora Dirancang kanggo Wong Kanthi Kulit Luwih Peteng

Google nanggapi kanthi ujar manawa bakal ngrampungake alat kasebut sadurunge ngeculake kanthi resmi:

Alat bantu dermatologi sing didhukung AI minangka puncak riset luwih saka telung taun. Wiwit karya kita ditampilake ing Kedokteran Alam, kita terus ngembangake lan nyempurnakake teknologi kanthi nggabungake set data tambahan sing kalebu data sing disumbangake dening ewonan wong, lan mayuta-yuta gambar keprigelan kulit sing luwih dikurasi.

Google, Nggunakake AI kanggo mbantu nemokake jawaban kanggo kondisi kulit sing umum

Kaya sing dikarepake AI lan program pembelajaran mesin bisa mbenerake bias kasebut, kasunyatane tetep: pinter minangka set data sing resik. Ing nganyari kanggo pepatah program lawas sampah mlebu / sampah metu, Solusi AI mung kuwat kaya kualitas set data saka wiwitan. Tanpa koreksi saka programer, kumpulan data kasebut ora duwe pengalaman latar mburi kanggo ndandani awake dhewe - amarga ora duwe pigura referensi liyane.

Mbangun set data kanthi tanggung jawab minangka inti kabeh etika artificial intelligence. Lan wong ing inti saka solusi. 

Mindful AI yaiku AI Etis

Bias ora kedadeyan ing vakum. Set data sing ora etis utawa bias teka saka njupuk pendekatan sing salah sajrone tahap pangembangan. Cara kanggo nglawan kesalahan bias yaiku nggunakake pendekatan sing tanggung jawab, fokus ing manungsa, sing akeh ing industri sing diarani Mindful AI. Mindful AI duwe telung komponen kritis:

1. Mindful AI punika Human-Centered

Wiwit wiwitan proyek AI, ing tahap perencanaan, kabutuhan wong kudu dadi pusat saben keputusan. Lan tegese kabeh wong - ora mung subset. Pramila pangembang kudu ngandelake tim sing beda-beda adhedhasar global kanggo nglatih aplikasi AI supaya inklusif lan bebas bias.

Crowdsourcing set data saka tim global lan macem-macem njamin bias diidentifikasi lan disaring luwih awal. Sing saka macem-macem etnis, kelompok umur, jender, tingkat pendidikan, latar mburi sosial-ekonomi, lan lokasi bisa luwih gampang nemokake set data sing luwih milih siji set nilai tinimbang liyane, saéngga ngilangi bias sing ora disengaja.

Deleng aplikasi swara. Nalika ngetrapake pendekatan AI sing eling, lan nggunakake kekuwatan kumpulan bakat global, pangembang bisa ngetrapake unsur linguistik kayata dialek lan aksen sing beda ing set data.

Nggawe kerangka desain sing dipusatake manungsa wiwit wiwitan penting banget. Dadi adoh banget kanggo mesthekake yen data sing digawe, dikurasi, lan diwenehi label cocog karo pangarepan pangguna pungkasan. Nanging uga penting kanggo njaga manungsa ing daur ulang sajrone siklus urip pangembangan produk. 

Manungsa ing daur ulang uga bisa mbantu mesin nggawe pengalaman AI sing luwih apik kanggo saben pamirsa tartamtu. Ing Pactera EDGE, tim proyek data AI kita, sing dumunung ing saindenging jagad, ngerti kepiye budaya lan konteks sing beda-beda bisa nyebabake pangumpulan lan kurasi data latihan AI sing dipercaya. Dheweke duwe alat sing dibutuhake kanggo menehi tandha masalah, ngawasi, lan ndandani sadurunge solusi adhedhasar AI.

AI Human-in-the-loop minangka proyek "jaring pengaman" sing nggabungake kekuwatane wong - lan latar mburi sing beda-beda kanthi kekuwatan komputasi mesin sing cepet. Kolaborasi manungsa lan AI iki kudu diadegake wiwit wiwitan program supaya data bias ora dadi dhasar ing proyek kasebut. 

2. Mindful AI Iku Tanggung Jawab

Tanggung jawab yaiku kanggo mesthekake yen sistem AI bebas bias lan adhedhasar etika. Iku babagan eling babagan carane, kenapa, lan ing ngendi data digawe, cara disintesis dening sistem AI, lan cara digunakake kanggo nggawe keputusan, keputusan sing bisa duwe implikasi etika. Salah sawijining cara kanggo bisnis yaiku nggarap komunitas sing kurang diwakili supaya luwih inklusif lan kurang bias. Ing bidang anotasi data, riset anyar nyoroti kepiye model multi-annotator multi-tugas sing nganggep label saben annotator minangka subtugas sing kapisah bisa mbantu ngatasi masalah potensial sing ana ing metode bebener dhasar sing ora setuju karo annotator amarga kurang representasi lan bisa diabaikan ing panggabungan anotasi menyang siji bebener lemah. 

3. Dipercaya

Kapercayan asale saka bisnis sing transparan lan bisa diterangake babagan cara model AI dilatih, cara kerjane, lan kenapa dheweke menehi rekomendasi asil kasebut. Bisnis mbutuhake keahlian karo lokalisasi AI supaya klien bisa nggawe aplikasi AI luwih inklusif lan dipersonalisasi, ngurmati nuansa kritis ing basa lokal lan pengalaman pangguna sing bisa nggawe utawa ngrusak kredibilitas solusi AI saka siji negara menyang negara sabanjure. . Contone, bisnis kudu ngrancang aplikasi kanggo konteks pribadi lan lokal, kalebu basa, dialek, lan aksen ing aplikasi adhedhasar swara. Mangkono, app nggawa tingkat kecanggihan pengalaman swara sing padha kanggo saben basa, saka basa Inggris nganti basa sing kurang diwakili.

Keadilan lan Bhinéka

Pungkasane, AI sing eling mesthekake solusi dibangun ing set data sing adil lan macem-macem ing ngendi akibat lan dampak saka asil tartamtu dipantau lan dievaluasi sadurunge solusi kasebut menyang pasar. Kanthi eling lan kalebu manungsa ing saben bagean pangembangan solusi kasebut, kita mbantu njamin model AI tetep resik, minimal bias, lan sabisane etika.

Apa sampeyan mikir?

Situs iki nggunakake Akismet kanggo ngurangi spam. Sinau babagan proses data sampeyan.