Correcció política en el llenguatge digital

Hola,

Quan ens diuen que les IA (Intel·ligència Artificial) estan molt avançades, que pensen com nosaltres i que d'aquí res controlaran el món, té sempre un punt d'exageració. Estan molt avançades, fan coses increïbles, però encara els queda un bon tros per recórrer per ser humanes.
Un exemple està en la IA que Google està desenvolupant per controlar textos ofensius. Des del moment en què crees una plataforma on la gent pot expressar les seves idees, la responsabilitat (moral o legal) que en ella no s'expressi alguna cosa inadequada en ella és teva. Aquesta tasca, encara que costi de creure, ja la realitzen éssers humans que estan desbordats i que en molts casos als pocs mesos causen baixa per problemes psicològics, sobretot pel constant contacte amb informació perjudicial. Així que gràcies al potencial que demostren les IA s'està intentant que aquestes tasques les realitzen elles que no tenen sentiments que corrompre.
La diferència entre un programa i una IA, és que el primer s'han pensat totes les opcions possibles d'entrada i es programen totes les respostes possibles a aquestes entrades. En canvi a la IA es la s'entrena perquè donada qualsevol entrada sempre doni una resposta adequada. El problema està en què la IA analitza les dades d'entrada però no pot com un humà donar-li un context, així que, de moment, es basa només en la correcció política que els humans li hem donat com a paràmetres per funcionar. La gent de Google s'ha donat compte en analitzar les conclusions de la IA que cerca textos ofensius que aquesta tracta com ofensius missatges que analitzats per un humà no ho eren i que la majoria dels errors es produïen amb grups socials concrets. Recoi que les seves conclusions eren racistes.
La IA pot distingir pel context del missatge si quan un escriu la paraula negre es refereix al color o a una persona, el que li resulta impossible en el segon cas és saber si és en to ofensiu, col·loquial o es un biaix cultural. Així que per correcció política els tracta tots com ofensius i això bloqueja textos no ofensius. I estan de moment només amb l'anglès, espera que comencin amb altres idiomes com el castellà on paraules commoro, morucha, concha, gitano, pendejo, perro, forro, hoyo, mendigo, maletón, ... no impliquen el mateix a Argentina, Mèxic, Paraguai, Xile o Espanya i tots parlen espanyol. Sense voler entrar a quan siguin textos antics, o referències a ells, i es trobi amb expressions com pisaverde o pagafantas.
Les IA són molt potents, fan moltes coses bé, però segueixen sense poder arribar a l'intangible dels humans i els que els que al final decideixen sobre la validesa dels seus entrenaments al final segueixen sent humans que tenen els seus biaixos culturals. Així que encara estem lluny d'una IA semblant a nosaltres... tot i que no ho necessiten per dominar-nos.

Comentaris

Entrades populars