Alexandria Ocasio-Cortez spune că algoritmii pot fi rasisti. Iată de ce are dreptate.

  • Rudolf Cole
  • 0
  • 3055
  • 506

Săptămâna trecută, Reprezentanta americană, recent aleasă, Alexandria Ocasio-Cortez, a făcut titluri când a spus, ca parte a celui de-al patrulea eveniment anual MLK Now, că tehnologiile și algoritmii de recunoaștere facială „au întotdeauna aceste inegalități rasiale care se traduc, deoarece algoritmii sunt încă realizați de către ființele umane, acei algoritmi sunt încă legați de ipotezele umane de bază. Sunt doar automatizate. Și ipoteze automate - dacă nu rezolvați prejudecata, atunci automatizați prejudecata. "

Asta înseamnă că algoritmii, care se bazează teoretic pe adevărurile obiective ale matematicii, pot fi „rasi?”. Și dacă da, ce se poate face pentru a elimina prejudecata? [Cele mai frumoase 11 ecuații matematice]

Se dovedește că ieșirea de la algoritmi poate produce într-adevăr rezultate părtinitoare. Oamenii de știință de date spun că programele de calculator, rețelele neuronale, algoritmii de învățare automată și inteligența artificială (AI) funcționează pentru că învață cum să se comporte din datele care le sunt date. Software-ul este scris de oameni, care au prejudecăți, iar datele de instruire sunt, de asemenea, generate de oameni care au prejudecăți.

Cele două etape ale învățării automate arată cum această prejudecată se poate transforma într-un proces aparent automatizat. În prima etapă, etapa de pregătire, un algoritm învață pe baza unui set de date sau pe anumite reguli sau restricții. A doua etapă este stadiul de inferență, în care un algoritm aplică ceea ce a învățat în practică. Această a doua etapă dezvăluie prejudecățile unui algoritm. De exemplu, dacă un algoritm este instruit cu imagini doar ale femeilor care au părul lung, atunci va crede că oricine are părul scurt este un bărbat.

Google a intrat în foc în 2015 în momentul în care Google Photos a etichetat oamenii negri drept gorile, probabil pentru că acestea erau singurele ființe cu pielea întunecată din setul de antrenament.

Iar prejudecățile se pot strecura prin multe căi. „O greșeală obișnuită este formarea unui algoritm pentru a face predicții bazate pe deciziile trecute de la oameni părtinitori”, a spus Sophie Searcy, un om de știință principal de date la boot-camp-ul de formare științifică Metis. "Dacă fac un algoritm pentru automatizarea deciziilor luate anterior de un grup de agenți de împrumut, aș putea lua drumul ușor și să instruiesc algoritmul în deciziile trecute de la acei ofițeri de împrumut. Dar atunci, bineînțeles, dacă acei ofițeri de împrumut ar fi părtinitori, atunci algoritmul pe care îl construiesc va continua acele prejudecăți ".

Searcy a menționat exemplul COMPAS, un instrument predictiv folosit în sistemul de justiție penală din Statele Unite pentru condamnare, care încearcă să prezice unde se va produce crima. ProPublica a efectuat o analiză pe COMPAS și a constatat că, după ce a controlat alte explicații statistice, instrumentul a supraestimat riscul de recidivă pentru inculpații negri și a subestimat constant riscul pentru inculpații albi..

Pentru a ajuta la combaterea prejudecăților algoritmice, a spus Searcy, inginerii și oamenii de știință de date ar trebui să creeze seturi de date mai diverse pentru probleme noi, precum și să încerce să înțeleagă și să diminueze prejudecata încorporată în seturile de date existente.

În primul rând, a spus Ira Cohen, un om de știință al datelor companiei de analiză predictivă Anodot, inginerii ar trebui să aibă un set de pregătire cu reprezentare relativ uniformă a tuturor tipurilor de populație, dacă pregătesc un algoritm pentru identificarea atributelor etnice sau de gen. „Este important să reprezentăm suficiente exemple de la fiecare grup de populație, chiar dacă acestea sunt o minoritate în populația totală care este examinată”, a spus Cohen. În cele din urmă, Cohen recomandă verificarea părtinirilor pentru un set de teste care include persoane din toate aceste grupuri. "Dacă, pentru o anumită cursă, precizia este semnificativ statistic mai mică decât celelalte categorii, algoritmul ar putea avea o părtinire și aș evalua datele de antrenament care au fost utilizate pentru acesta", a declarat Cohen pentru LiveScience. De exemplu, dacă algoritmul poate identifica corect 900 din 1.000 de fețe albe, dar detectează corect doar 600 din 1.000 de fețe asiatice, atunci algoritmul poate avea o părtinire "împotriva" asiaticilor, a adăugat Cohen.

Îndepărtarea prejudecății poate fi incredibil de dificilă pentru AI.

Chiar și Google, considerat un precursor în AI comercială, se pare că nu a putut găsi o soluție cuprinzătoare a problemei sale de gorilă din 2015. Wired a constatat că în loc să găsească o modalitate prin care algoritmii săi să distingă între oameni de culoare și gorile, Google a blocat pur și simplu algoritmii săi de recunoaștere a imaginii de la identificarea gorilelor.

Exemplul Google este un reamintire potrivit căruia software-ul AI de formare poate fi un exercițiu dificil, mai ales atunci când software-ul nu este testat sau instruit de un reprezentant și un grup divers de oameni.

  • Inteligență artificială: prietenoasă sau înfricoșătoare?
  • Mașini Super-Inteligente: 7 Futures Robotice
  • 10 noi abilități nebunești pe care le-au ales roboții în 2018

Publicat inițial la .




Nimeni nu a comentat acest articol încă.

Cele mai interesante articole despre secrete și descoperiri. O mulțime de informații utile despre tot
Articole despre știință, spațiu, tehnologie, sănătate, mediu, cultură și istorie. Explicați mii de subiecte pentru a ști cum funcționează totul