La paradoxa de minimitzar el risc

No ens agraden les incerteses, acostumem a témer allò desconegut i intentem reforçar el que coneixem i el que tenim. Això ens fa desenvolupar des de teories econòmiques a moviments polítics, mou la història de tant en tant o fins i tot ens condiciona socialment.

Però el risc forma part, en molts sentits, de la nostra vida, i intentar evitar-ho a tota costa i, el que es pitjor, pensar-nos que podem evitar-lo, no ens porta res de bò. Bruce Schneier és molt clar:

We’re afraid of risk. It’s a normal part of life, but we’re increasingly unwilling to accept it at any level. So we turn to technology to protect us. The problem is that technological security measures aren’t free. They cost money, of course, but they cost other things as well. They often don’t provide the security they advertise, and — paradoxically — they often increase risk somewhere else. This problem is particularly stark when the risk involves another person: crime, terrorism, and so on. While technology has made us much safer against natural risks like accidents and disease, it works less well against man-made risks.

Intentar minimitzar riscos de potencials desastres naturals basant-se només en el que ha passat ens dona una falta sensació de seguretat: ja ens hem blindat contra allò que ha passat i no pot tornar a passar… però i el que no ha passat? Pensar que quelcom no pot passar és diferent de quelcom impensable, i aquí ja poden entrar en joc inversions necessàries, probabilitas (enganyoses, segons com) i el seny i les decisions d’aquells en càrrecs de responsabilitat… debilitats i interessos de les mateixes persones entren en joc. Tot i així, però, el número de possibilitats acaba sent finit: com diu Schneier, la natura no s’adapta a les nostres contramesures.

Intentar minimitzar riscos de situacions generades per humans es molt més difícil: nosaltres ens adaptem, fem contramesures, i s’entra en una espiral d’adaptacions i contraadaptacions: la paradoxa d’intentar minimitzar un risc conegut i, per contra, generar-ne un de nou. A més, a nivell social tractar amb riscos està a un pèl de tractar amb la por, i això políticament pot ser molt rendible i socialment molt contraproduent a la mitja o a la llarga, més quan mesures i normatives que les regulen son sempre interpretables pels grups que s’encarreguen d’aplicar-les o dissenyar-les, és a dir, son subjectives.

Cal reavaluar la percepció del risc que tenim, i veure com en podem treure partit pel bé de la llibertat en les nostres societats. Cal sortir una mica de la zona de comoditat i mirar a l’horitzó, i això ens pot permetre també pensar en el llarg termini: mesures que minimitzin riscos socials poden funcionar durant un temps, però no ataquen l’arrel del problema que produeix el risc, cal buscar-la. I segurament la solució bona a llarg termini serà en termes educatius, d’inversió i de millora d’entorns i perspectives de vida.

Big data, models i cignes negres

La cerca i anàlisi de conjunts immensos de dades sembla ser el nou gran paradigma, la nova frontera a explorar, el nou Klondike on cercar or: Sabrem més de nosaltres, podrem buscar patrons de comportament i a partir d’aquí inferir no només gustos i amistats, si no trobar patrons de comportament i xarxes de contactes. Això pot ser un caramel per les agències de publicitat, i és, indubtablement, un caramel també per les agències de seguretat.

Buscar patrons de comportament de casos comprovats i relacionar-los amb d’altres de similars, cercar xarxes de contactes, correus, canvis en els contactes i en els patrons de trucades, comportaments, desplaçaments o compres, tot és possible si disposem d’un gran conjunt de dades interrelacionades (i en disposem, això està clar). Fareed Zakaria se’n fa ressò a en un article a Time, citant les possibilitats que s’obren.

In ancient times–by which I mean a decade ago–computers would sort through random samples of data or try to create an algorithm to search for a criminal. But today, data is so readily available and computers are so fast and powerful that experts can analyze entire data sets, every last piece of information, to find needles in haystacks. As a result, they have stopped trying to figure out why something–say, crime–happens. Instead they look at crimes and notice what events or behaviors seem to precede them. In other words, the tricky work of turning information into knowledge has shifted from causation to correlation.

Big Data, Meet Big Brother. Time Magazine, July 08, 2013

Si s’enfoca des del punt de vista de la seguretat, el big data pot ser una ajuda. Segur. Però no cal perdre el bosc de vista: si ens tanquem a buscar només patrons ja existents (per més comprovats que estiguin), no serem capaços de trobar sorpreses imprevistes, els cignes negres que diu Taleb.

L’aplicació de la força bruta de càlcul, aplicant cerques sobre patrons ja coneguts i no inferint models nous de comportament poden donar una falsa sensació de seguretat, de pensar que podem saber i analitzar-ho tot… però això és sempre a posteriori. El passar de causalitat a correlació de les dades té el risc de pensar que totes dues coses son el mateix, per més que s’intenti reduir tractant grans volums de dades amb moltíssimes variables diferents: la clau és l’establiment i creació dels models: tant els usats per fer cerques com els inferits a partir dels resultats de les cerques, així com l’anàlisi posterior de tot plegat.

El big data és una gran eina, és un avenç espectacular en, per exemple, la comprovació de teories de qualsevol tipus: podem passar de comprovar una teoria amb uns quants centenars o milers de casos a comprovar-ho amb milions, el que augmenta la robustesa de la mateixa. Però no podem oblidar que, ja sigui en ciència o en la vida real, una sola prova contrària invalida tota una teoria.

Ens cal, i ens caldrà durant molt temps, la possibilitat que tenim les persones d’imaginar, de crear, de trencar els motlles d’allò establert per pensar noves coses, de trobar cignes negres (positius i negatius).

Actualització 18/7/2013: Dos dies després d’escriure aquest text trobo “Blinded By Big Data: It’s The Models, Stupid“, de Matt Asay, on parla amb uns termes similars.

Tecnoamenaces?

Ha canviat la nostra percepció sobre el paper de les màquines i els ordinadors, ens preocupa fins on puguin arribar els nostres invents?

Al blog d’en Pere trobo que Exposició Et l'homme créa le RobotNicholas Carr pensa que a mesura que augmenten la capacitat i l’autonomia de les màquines (reconeixement de veu, decisió, IA, detecció) les comencem a veure més com una possible amenaça que no pas com una ajuda: com podria afectar-nos en un futur, no excessivament remot, la possible presa de consciència pròpia d’una màquina intel·ligent? Podria afectar-nos com a espècie, ser un risc per la nostra supervivència?

Tot i poder semblar una mica de ciència-ficció i allunyat de la realitat, la dependència actual de la nostra societat de les conexions entre sistemes molt especialitzats (sistemes de tractaments de dades (decisió, cerca, reacció), d’ajuda a decisions, sistemes de regulació energètica, no específicament intel·ligents) és altíssima, i qualsevol malfuncionament, desconnexió o error dels mateixos sí que pot causar conseqüències molt greus a diferents nivells… Si entrem també a sistemes d’armes automatitzats, centrals nuclears, o elements de biotecnologia, aleshores el risc és molt pitjor, i l’aplicació de més autonomia i poder de decisió propi en el control dels sistemes augmenta encara més el risc.

Pot suposar això, com diu en Carr, una amenaça per a la nostra supervivència com a espècie? Potser si, però segurament no més enllà del comportament que nosaltres programem inicialment a les màquines. A banda d’incloure coneixement, resposta i autoaprenentatge, s’hi inclou també elements més humans com ètica i responsabilitat? Dit d’una altra manera, el que nosaltres programem és el que trobarem, no seràn més que fills nostres, que hem d’educar. Potser el tecnopessimisme no és més, doncs, que la constatació de la naturalesa humana en una època dura: el problema no és tant la presa de consciència de sistemes autònoms pels quals no signifiquem res, el problema és més aviat la grandíssima dependència de sistemes falibles, no preparats per situacions imprevistes (els Cignes negres de Taleb).

Vist això, però, i coneixent-nos, potser hauriem de pensar en incloure les Tres Lleis de la Robòtica d’Asimov en alguns sistemes, no?