lunedì 3 ottobre 2016

Twitter e i suoi algoritmi



Il mio presunto comportamento automatico sarebbero dei semplici retweet, evidentemente in quel momento ad una frequenza (2 o 3 poco distanziati temporalmente) non gradita dai geniacci di Twitter.

Aggiornamento del 8 Ott 2016: dimenticavo di precisare che i retweet erano di tweet di Luciano Barra Caracciolo; vedere a questo proposito COMUNICAZIONE DI...CENSURA KAFKIANA.

Ai diversamente intelligenti che ma sono gli algoritmi, è il machine learning, quindi stacce, ribadisco quanto segue:
  1. siete dei moderni idiot savant tecnologici, per voi “algoritmi” ha la stessa funzione assolutoria de “la mano invisibile del mercato”; ma gli algoritmi chi li crea?
  2. Volete far passare l'idea che non ci devono essere responsabili del comportamento emergente degli automatismi (che mutano col tempo in modo opaco per l'utente e sanzionano un comportamento che fino a poco prima passava inosservato — questo implica il machine learning): l'utente privo di intenti malevoli che da questi viene intercettato è, secondo voi, colpevole di comportamento non conforme e va quindi sanzionato o, al limite, è una vittima collaterale sacrificabile.
Non vi rendete conto, oltretutto, che qualsiasi atto di censura in questo modo ha a priori negabilità plausibile.

Alle persone ragionevoli chiedo: siete sicuri che la questione sia di poca importanza adesso che questi automatismi sono diffusi e sempre più lo saranno in futuro, in contesti ben più delicati dei social network? Se questo atteggiamento insensato  dovesse contagiare anche il cittadino comune, sempre intenzionalmente male informato dagli operatori dell'informazione, e, peggio, il legislatore, vi immaginate le conseguenze? Per esempio nel caso delle auto a guida autonoma (per qualcuno self-crashing cars)?

Non mancherà la propaganda: «volete imbrigliare l'innovazione coi lacci&lacciuoli di normative farraginose! Questi sistemi sono più sicuri degli esseri umani, ci saranno meno incidenti!»

Può essere, ma è tutto da dimostrare; comunque quando è un essere umano al posto di controllo, l'errore umano, ritenuto imperscrutabile, è il jolly preferito da chi vuole scaricare le responsabilità sull'anello più debole della catena.

Quando l'operatore umano deve operare in condizioni che notoriamente stressano o eccedono le sue capacità cognitive, l'errore è prevedibile e, più spesso di quanto si pensi, prevenibile; lo si ignora volutamente se il costo della prevenzione viene ritenuto eccessivo e non vi è alcuna normativa a rendere obbligatorie le necessarie misure di sicurezza. L'automatismo, se passa la visione degli idiot savant di cui sopra, sarà un'ulteriore scappatoia, altro che sicurezza!