Humanitats per a la tecnologia

O acabarem deshumanitzant-nos nosaltres, sense capacitat d’acció ni reacció.

Es que el terreno de la inteligencia artificial ya no es solamente un espacio para la tecnología y la ciencia de computadores, es un terreno que abarca absolutamente todas las disciplinas intelectuales.[…]

John Etchemendy, entrevistat a El País Semanal (9/7/2019)

John Etchemendy parla de la IA, però el mateix es pot aplicar al big data, a les xarxes socials o a qualsevol sistema d’avui en dia: com més estesa està la tecnologia dins de les nostres vides i de la societat en general, menys la podem deixar únicament en mans de tecnòlegs i més hem d’humanitzar-la.

I quan dic humanitzar-la no parlo de posar-li cares humanoides als robots, veus masculines i femenines als assistents ni emoticones més o menys divertides a les aplicacions de missatgeria: cal aplicar els mateixos controls i criteris que a la resta d’apartats de la nostra vida: ètica, filosofia, legalitat i control públic. Cal no tenir fer cega en uns algorismes de decisió que no coneixem, però que filtren el que veiem o el que fem, no deixar-se portar per una falsa creença en algorismes suposadament acrítics, però que estan creats, la majoria, per empreses que responen al criteri econòmic del màxim benefici, sigui per esprémer dades o per interessos polítics de control (i les subvencions que els acompanyen). No estan gaire lluny els escàndals de Cambridge Analytica, la xarxa Echelon o el control social brutal a la Xina, exponent màxim de l’entramat polític-econòmic-militar (el gran tallafocs, els algorismes de puntuació social, el control de la minoria uigur), els programes d’infiltració i control del govern rus, o totes i cada una de les publicitats que rebem ara i adés.

La tecnologia no es governa per si sola, ni està aïllada de qui la fa: incorpora totes les bondats i totes les maldats dels seus creadors, els seus biaixos racial, sexistes o socials, els seus errors i descuits.

A mesura que la tecnologia governa cada aspecte de la nostra vida, tots aquests perills i errors s’hi escolen, de manera augmentada cada vegada: el que pot ser un petit error o descuit en un formulari, pot ser un biaix sexista o racista en una aplicació de reconeixement facial, o un descuit de determinada característica pot afectar a aplicacions d’ajuda policials o de gestió econòmica (penseu en bancs, hipoteques, crèdits…)

Afegim ara les potencialitats del big data i els algorismes que el governen, com ensenyem a les IA o les capacitats de decisió de sistemes de defensa… i hi sumem la confiança cega que tenim en els resultats de qualsevol cerca que fem o de qualsevol suggeriment que ens presenta la pantalla o l’assistent de torn, de vegades per pròpia comoditat.

[…]el agravante de que toda esta aura, toda esta admiración ciega por la tecnología, nos hace pensar que las decisiones que toma un computador son mucho más fiables que las que toma un individuo. Eso es un gran peligro.

John Etchemendy, a la mateixa entrevista

La tecnologia és un mitjà, una eina, res més, però està tan imbricada en les nostres vides que no podem deixar que s’autogoverni, o que es desgoverni: no ens hem de protegir de la tecnologia, ens hem de protegir, controlar, educar a qui la crea: nosaltres mateixos.

Deixa un comentari

L'adreça electrònica no es publicarà.