Tecnoamenaces?

Ha canviat la nostra percepció sobre el paper de les màquines i els ordinadors, ens preocupa fins on puguin arribar els nostres invents?

Al blog d’en Pere trobo que Exposició Et l'homme créa le RobotNicholas Carr pensa que a mesura que augmenten la capacitat i l’autonomia de les màquines (reconeixement de veu, decisió, IA, detecció) les comencem a veure més com una possible amenaça que no pas com una ajuda: com podria afectar-nos en un futur, no excessivament remot, la possible presa de consciència pròpia d’una màquina intel·ligent? Podria afectar-nos com a espècie, ser un risc per la nostra supervivència?

Tot i poder semblar una mica de ciència-ficció i allunyat de la realitat, la dependència actual de la nostra societat de les conexions entre sistemes molt especialitzats (sistemes de tractaments de dades (decisió, cerca, reacció), d’ajuda a decisions, sistemes de regulació energètica, no específicament intel·ligents) és altíssima, i qualsevol malfuncionament, desconnexió o error dels mateixos sí que pot causar conseqüències molt greus a diferents nivells… Si entrem també a sistemes d’armes automatitzats, centrals nuclears, o elements de biotecnologia, aleshores el risc és molt pitjor, i l’aplicació de més autonomia i poder de decisió propi en el control dels sistemes augmenta encara més el risc.

Pot suposar això, com diu en Carr, una amenaça per a la nostra supervivència com a espècie? Potser si, però segurament no més enllà del comportament que nosaltres programem inicialment a les màquines. A banda d’incloure coneixement, resposta i autoaprenentatge, s’hi inclou també elements més humans com ètica i responsabilitat? Dit d’una altra manera, el que nosaltres programem és el que trobarem, no seràn més que fills nostres, que hem d’educar. Potser el tecnopessimisme no és més, doncs, que la constatació de la naturalesa humana en una època dura: el problema no és tant la presa de consciència de sistemes autònoms pels quals no signifiquem res, el problema és més aviat la grandíssima dependència de sistemes falibles, no preparats per situacions imprevistes (els Cignes negres de Taleb).

Vist això, però, i coneixent-nos, potser hauriem de pensar en incloure les Tres Lleis de la Robòtica d’Asimov en alguns sistemes, no?