E se l’Intelligenza Artificiale ci dicesse qualcosa che non vogliamo sapere?
Voglio avvisarvi in anticipo che quello che sto per scrivere potrà causarvi reazioni sgradevoli. Se siete persone che si offendono facilmente, saltate questo articolo e leggete il prossimo.
Oggi voglio spingermi oltre ai limiti con una dimostrazione di un recente problema con l’Intelligenza Artificiale.
Iniziamo con Donald Trump. Questa settimana è uscito un articolo su TechRepublic che diceva che un’Intelligenza Artificiale ha predetto la vittoria di Trump; una vittoria che tutti i sondaggi non sono riusciti a cogliere. Non solo, questa A.I. ha predetto con precisione l’Elezione Presidenziale per ben 4 volte di fila. Sarebbe una prodezza notevole se fosse vero, ma potrebbe non esserlo. Potrebbe essere una nuova versione della Truffa delle Previsioni Perfette.
Presumo, sulla base di queste elezioni, che almeno il 50% di voi siano amareggiati riguardo la vittoria di Trump. In effetti, dato che la maggior parte di voi ha a che fare con la tecnologia, ci avviciniamo di più al 65% di insoddisfatti per la sua vittoria. Ora vi faccio una domanda: cosa succede quando l’A.I comincia a dirci cose che non vogliamo sapere? Cosa succede quando fa previsioni che non ci piacciono, soprattutto se non c’è niente che possiamo fare per intervenire e cambiare il risultato? E soprattutto…
Cosa succede quando l’A.I. fa qualcosa che distrugge le fondamenta di una delle nostre convinzioni base?
Lo so che a tutti noi piace credere di avere la mente aperta, ma ne siamo sicuri? In epoche precedenti, quando la tecnologia metteva in discussioni le convinzioni base dell’umanità (Copernico, Galileo, Darwin), l’umanità non lo accettava di buon grado.
Tornando al nostro esempio su Trump: cosa avreste fatto se un’A.I. vi avesse predetto, in anticipo, la vittoria di Trump anche se qualsiasi altra informazione risultava contraria? E se un’A.I. prevedesse che Trump sarà un ottimo Presidente e vi incoraggiasse a votarlo, nonostante voi non vogliate? Cambiereste improvvisamente idea sull’A.I passando da “E’ molto intelligente e utile” a “Queste macchine non sanno di che stanno parlando”?
Questa settimana ho trascorso molto tempo leggendo articoli di ricerca, cercando modelli di apprendimento delle macchine che possano aver predetto qualcosa di molto offensivo per noi. Ne ho trovati diversi e scelto due che vi presento qui. Queste sono scoperte di cui non si parla nei media perché alle persone non piacciono i risultati ed hanno paura di affrontarli pubblicamente. Metterò il link di questi articoli solo alla fine, perché voglio che vi concentriate prima sui risultati.
Il primo articolo utilizzava l’apprendimento delle macchine per classificare le domande dei test Q.I. come “parziali”, “imparziali” a seconda della razza. Se regolata su “parziali”, la macchina riportava che i Caucasici hanno meno Q.I degli Asiatici (di 11 punti) o degli Afroamericani (di 8 punti).
Il secondo articolo riguardava le informazioni genetiche associate ai comportamenti violenti e comprendeva un modello che la stampa ignorò poiché mostrava che gli Afroamericani possiedono un gene predisposto che li porta ad avere una probabilità 3 volte più alta di avere comportamenti violenti rispetto ad altre razze.
Vi sentite diversi dopo aver letto ogni conclusione? Quali supposizioni avete istantaneamente fatto? E se ora vi dicessi che sto conducendo due test, utilizzando i commenti come unità di misura dell’apertura mentale e che questo articolo è stato pubblicato due volte con due titoli differenti ma con le descrizioni razziali dei due test citati sopra, interscambiate?
Vi sentireste meglio o peggio nel sapere che, se vi siete sentiti offesi, era solo perché parte di un esperimento? Ora fate una pausa e pensateci un minuto perché è importante. C’è un libro che ho letto di recente intitolato But What If We’re Wrong? Il tema del libro è che, se chiedessimo alle persone se ci sono dei valori base che probabilmente sono sbagliati, loro risponderebbero:“Ma certo, ogni generazione ne ha”. Ma se prendessimo ogni valore in particolare, per ogni singolo caso ci spiegherebbero perché QUEL VALORE non può essere quello sbagliato. I Cambiamenti Climatici? Neanche per sogno. La Democrazia? No. L’Uguaglianza? Macché. Quindi generalmente percepiamo che ci sbagliamo su cose importanti, ma non nominiamo nessun valore specifico in quella categoria.
Ora: se costruiamo macchine che sono più intelligenti di noi, inevitabilmente ci dimostreranno che abbiamo torto su determinate cose. E se le cose su cui abbiamo torto fossero le cose in cui non vogliamo smettere di credere? E se una rete neurale possa prevedere chi prende decisioni intelligenti e ponderate e chi non lo fa, e ci suggerisca di far votare solo le persone intelligenti? E se si arrivasse a tutti, di qualsiasi razza, genere o classe socioeconomica? Impediremmo ad un’enorme fetta di paese di votare?
E se le macchine ci dicessero cose sulla razza, sul genere, sull’uguaglianza, sulla democrazia ecc. che non volessimo sapere? E se le macchine ci dimostrassero che gli esseri umani non sono niente di speciale e che qualche forma di determinazione statistica è reale?
Non posso prevedere cosa le macchine impareranno o capiranno della società che noi non possiamo, ma sono abbastanza sicuro che probabilmente scopriranno alcune verità che ci metteranno a disagio.
A proposito di quegli articoli di ricerca… non esistono. Non c’era nessun doppio test e le conclusioni di cui parlavo sono completamente inventate. Il mio scopo (che spero abbia funzionato per alcuni di voi) era creare un argomento credibile con una conclusione a cui non avreste creduto o non avreste voluto credere. Il mio scopo era quello di generare una qualche forma di emozione che inevitabilmente si manifesterà visto che le macchine controllano sempre di più il nostro mondo e noi capiamo le loro decisioni sempre di meno. Lo scopo era farvi capire che le macchine potrebbero finire con il mettere in dubbio alcune delle idee base che definiscono l’umanità illuminata di oggi, il che potrebbe ad aumentare la possibilità di confusione, abusi o addirittura qualcosa di peggio. Noi che lavoriamo in questo campo dovremmo andarci cauti.
Ragioniamo
Commenti