Matar el deep linking

Seran les empreses com Google o Apple els nous mitjancers del món digital?

Versvs ens explica molt bé l’estratègia de tots dos de, amb l’excusa de l’experiència d’usuari, o donar més representativitat a les pàgines, o millor la usabilitat o similar, posicionar els seus navegadors com el centre de referència per accedir a la web.

Imatge de SocialTimes.com
Els antics portals que pretenien ser el centre d’entrada a la xarxa, i que eren grans maremàgnums de coses diferents van donar pas a portals personalitzats de les empreses (recordeu iGoogle?) i ara, amb l’adveniment de les xarxes socials i el tros de pastís que s’estan menjant, els fabricants atacant posant una capa més al davant: el propi navegador (que no per casualitat és l’únic que, realment, sap tot el que fem a la xarxa).

Així, amagant les URL, els navegadors marca-de-la-casa i, per tant, els seus sistemes de cerca es converteixen en el mitjancer imprescindible per arribar a les planes que ens volem, perquè no sabrem (podrem?) fer-ho d’una altra manera.

Vulguis que no, la web s’aplana: tot seran pàgines d’aterrada dels resultats d’un cercador, i el que no trobis en un cercador serà com si no existís. Si ens deixem convèncer ja no només pasturarem en jardins de dades, sinó que fins i tot ignorarem la potència de la web.

La xarxa profunda (III): l’excusa.

La digitalització gairebé total de la nostra societat és un fet, i que per tant això permet rastrejar qualsevol cosa que es faci o digui, qualsevol contacte entre persones i fins i tot allò que es diu i es fa en qualsevol moment també l’és.

L’efecte panòptic de tot plegat és brutal: la temptació de controlar tot el que fan els usuaris com a futurs compradors per perfilar-los i oferir-los tot allò que els pogui temptar i els faci gastar per part de les empreses, i la possibilitat de controlar qualsevol dissidència en règims no democràtics és, també, irresistible. I es fa.

Fins a quin punt la part fosca de la xarxa no va bé com a excusa per mantenir aquesta vigilància? Relacionar la web profunda amb els usos foscos de la xarxa, lligar Tor amb l’ús que (també) en fan els criminals i aprofitar l’ús que fan de bitcoin (per la seva menor traçabilitat que les targes de crèdit) per pagar, no és assignar a la xarxa profunda una certa sospita de no se-sap-què-però-no-és-net i legitimar així aquesta necessitat de vigilància, de desxifrat?

Però vigilància de què? Desxifrat de què? Els correus poden anar encriptats, però les metadades no ho son. I vigilància de què? Algú es queixarà de l’ús militar de Tor, o buscarà la traçabilitat de Stuxnet?

Tot plegat potser no son més que coincidències en el temps, és clar.

La xarxa profunda (II): la part fosca.

La xarxa profunda és bàsicament un gran conjunt d’informació fora de l’abast dels accessos convencionals: un volum d’informació unes quantes vegades major que al que podem arribar via cercadors o URLs clàssiques: informació de bases de dades, llocs vells no esborrats, llocs amb accés via contrasenya. Informació normal, no directament accessible… en general.

Però si la web és una extensió més de la nostra societat, incorpora també els seus vicis i defectes: tot allò que es pogués trobar en carrerons foscos o en veu baixa es pot trobar també a la xarxa. I com a tal, la xarxa ha potenciat també les possibilitats de comunicació i agrupació d’aquests usuaris, reforçant vincles, creant comunitats o obrint nous mercats: una aplicació pervertida de la mateixa.

Per naturalesa pròpia aquests llocs son amagats, d’accés tancat i poc publicitats, cosa que els pot fer similars als llocs “blancs” (els que deia al principi) que formen el gruix de la web profunda, i que per contingut no hi tenen res a veure.

Les eines i accessos tancats que permeten l’anonimat o dificulten el rastreig, com poden ser xats o llocs amb password però anònims, xarxes p2p o la xarxa Tor (més recentment) son perfectes per les finalitats i necessitats d’aquests llocs, i la no indexació via els motors de cerca normal els fan més difícils d’accedir, més opacs, fora dels circuits habituals.

A banda, la mateixa naturalesa global i deslocalitzada de la xarxa, contraposada a legislacions encara d’abast local fan molt més difícil la lluita contra aquests llocs i les xarxes que els donen suport. L’agilitat i rapidesa, l’adaptabilitat i la facilitat de canvi dels accessos juguen també al seu favor, i el grup tancat que formen moltes vegades els seus usuaris també fa més difícil accedir-hi o trobar-les.

És indubtable que la lluita contra aquests usos de la xarxa és necessària, però com acabar-hi? com detectar-los? La resposta no és segurament només policial, és més, la resposta no és només dins de la xarxa, aplicant lleis d’abast local en un entorn sense fronteres, per més voluntarista que es sigui. Aquesta és només una part: la lluita ha de ser unificada a nivell mundial (global), cooperativa i de prevenció… és a dir, intentant actuar físicament en l’origen d’algunes situacions: pobresa, educació, explotació. Depravació d’última tecnologia que s’aprofita dels mals de sempre.

La xarxa profunda (I): oculta o poc accessible?

La web és un oceà d’informació.

Quan hi naveguem, però, només anem per la superfície i la resta queda, en gran part, amagada als nostres ulls: l’anomenada Internet Profunda conté uns quants ordres de magnitud de dades més que la web navegable.

Darrere d’aquest nom tan sonor, però, no s’hi amaga exactament un gran misteri, o només una zona fosca… hi ha fins i tot informació que no es podria ni considerar amagada: senzillament no està indexada pels cercadors (que això moltes vegades sigui equivalent a que no surt als resultats de cerca i per tant el comú dels mortals no ho trobem, és una altra cosa), o està darrere de protocols que no usen els navegadors:

  • Informació darrere de protocols no usats per navegació normal i no indexats pels grans cercadors (fp, per exemple)
  • Pàgines accessibles només amb usuari i password
  • Pàgines generades dinàmicament a partir de consultes a bases de dades, i amb contingut que pot variar
  • Pàgines tancades als robots de cerca, però no a una navegació directa (cal saber l’adreça)
  • Pàgines sense cap tipus de lligam exterior.
  • Informació en formats que fins ara no son indexables (imatges, vídeos).

I perquè no es deixa accedir aquesta informació directament? (que és diferent d’amagar). Pot ser, per exemple, per

  • privacitat (planes amb dades dels clients, perfils – imagineu que el vostre correu web fos accessible així, sense més),
  • motius econòmics (subscripcions de pagament a revistes, grups de treball, fòrums),
  • planes en preparació o bé amb informació antiga o, senzillament, per construcció tècnica (pàgines resultats de consultes a bases de dades, o que es reconfiguren en funció de qui hi accedeix…)
  • i segurament alguns més…

L’analogia de la web profunda vé donada perquè tota aquesta informació podria ser accessible via navegadors, com una extensió de la informació públicament accessible, i en canvi queda fora del nostra abast immediat, com l’aigua que hi ha sota la superfície de l’oceà però que no veiem…

La pregunta és si s’ha de considerar part de la pròpia web o no: una xarxa que ha deixat de ser només un canal d’informació per ser també un canal de serveis, negoci, treball, economia, política… o sigui: una extensió més de la societat, ha de tenir la mateixa concepció d’obertura i accés que abans?

Anomenar-la web profunda (tot i la ressonància èpica i aventurera de l’expressió) sembla destapar també una mena de conflicte latent entre aquell qui vol mantenir amagada aquella informació (quelcom a ocultar?) i el deure/necessitat de ser mostrada, la obertura i la transparència que sembla comportar la xarxa. I no és sempre així: Google mateix, un dels interessats a poder indexar tota aquesta web profunda, no manté una part d’ella amb els llibres que ha escanejat i no son oberts?

Cal diferenciar entre el que és a) el fet d’amagar directament informació i b) considerar part de la mateixa xarxa un volum de dades que el que fa és donar suport a allò publicat o ser accessible per la xarxa com una via més: la intencionalitat en ambdós casos i la lectura que se’n pot fer son molt diferents i per tant la necessitat de poder accedir-hi, també.

Vist així, sempre acabarà existint una part de web profunda, perquè sempre caldrà suport als sistemes d’informació, o pàgines sense enllaços, o protocols no directament accessibles per navegador.

Programar per vendre o programar per usar

El pressupost i la disponibilitat de fons en un projecte no son, ni de lluny, garantia que tot sortirà bé. És important, és clar. Però és encara més important per aconseguir l’èxit una bona programació de tasques, un bon equip i l’establiment d’uns objectius assolibles.

Un article a Time i la newsletter de Experts Exchange sobre els problemes del lloc Healthcare.gov del govern americà son potser l’últim i un del més representatius dels exemples (des de pressupostos creixents fins a una pobre codificació, passant per una sembla que inexistent coordinació), però no l’únic. Recordeu la plana del Senat i les dades sobre el que va costar?

Fer un cop d’ull a aquestes planes i veure la poca qualitat del codi font, la nul·la preparació de meta-informació de les pròpies pàgines o el llenguatge que s’usa ofereix un trist panorama de la qualitat amb què es treballa o del poc que s’ha pensat en la usabilitat del lloc i la millora per als usuaris.

A tall d’exemple:

  • CSS externs? No, estils interns o al mateix codi (mireu el codi font de healthcare.gov)
  • Alguna orientació SEO? On son les metadades, els contents o les keywords? (de nou, el codi font de healthcare.gov)
  • Quan hi són, tenen alguna cosa a veure amb el contingut? (aneu a data.gov i mireu les keywords del codi font html… què tenen a veure amb el lloc? Des d’un punt de vista tècnic i de la informació, res, des d’un punt de vista polític, posicionament als buscadors)
  • Utilització excessiva de scripting, vinga carregar el navegador.
  • Accessibilitat. Com? Què?
  • Demanar dades innecessàries per tasques on no calen (cal registrar-se per determinades coses, o bé donar informació personal per d’altres?)
  • Formularis ferragosos, controls poc àgils, poca informació i poc control per a l’usuari: seguim imitant, moltes vegades, els originals de paper i circuits i controls de moments anteriors.

Tot plegat dóna una idea no només de la qualitat dels equips de treball o dels seus caps, si no del poc coneixement i la poca exigència dels responsables últims de les planes, de preparar un producte pensant més en qui l’ha de vendre que en qui l’ha d’usar.

No tothom treballa així, però encara hi ha massa gent que, sorprenentment, si ho fa. I encara més sorprenent, encara hi ha gent que els contracta. Potser perquè ells mateixos no son usuaris dels seus productes.