Può sembrare roba da film di fantascienza di serie B o pernsieri di uno squilibrato che ha perso il contatto con la realtà, credimi che preferirei che fosse così.
Senza tirare fuori troppi argomenti ti dico solo che alcuni ricercatori dell'università di Cambridge,
un'università inglese molto importante, hanno proposto di istituire un Centro Studi sul Rischio Esistenziale (CSER), con l'obiettivo specifico di analizzare accuratamente i potenziali rischi della sopravvivenza della specie umana. Questo CSER dovrebbe avere il compito di valutare quale impatto potrebbero avere sull'esistenza dell'uomo fattori di rischio come il biotech e le nanotecnologie, cambiamenti climatici estremi, guerre termonucleari e la creazione dell'intelligenza artificiale.
Cose da brividi, ma reali.
Nelle mie schizofrenie mentali mi sono chiesto spesso perché mai le "macchine intelligenti", quelle che sarebbero in grado in futuro di costruirsi da sole, dovrebbe volerci distruggere.
Perché mai, non avendo sentimenti, non essendo capaci di provare odio, invidia, desiderio di potere, dovrebbero decidere di sterminarci?
Adesso che la risposta mi è più chiara, mi sembra quasi banale. Per lo stesso motivo per cui noi stiamo portando all'estinzione i gorilla (o altri animali):
la competizione per lo sfruttamento delle risorse.
Semplice, quanto spaventoso.
Noi esseri umani ci prodighiamo con grande impegno e brutalità a sterminare le altre specie viventi, senza provare odio nei loro confronti. Semplicemente occupano il nostro territorio e noi le uccidiamo, le mangiamo, le sterminiamo.
Abbiamo bisogno delle risorse di cui hanno bisogno anche loro, però noi siamo più scaltri, più forti e quindi ci prendiamo quello ci serve, senza preoccuparci delle altre forme di vita.
Ecco, questa è la fine che rischiamo di fare anche noi, il giorno che daremo alle macchine la capacità di autoreplicarsi, la capacità di apprendere la via migliore per raggiungere il loro scopo.
Brrr
Commenti offerti da CComment