I rischi dell’Intelligenza Artificiale (AI). La clamorosa denuncia di Geoffrey Hinton
— 3 Maggio 2023 — pubblicato da Redazione. —Geoffrey Hinton, uno dei padri fondatori del deep learning, ha deciso di dimettersi da Google per poter parlare dei rischi dell’Intelligenza artificiale.
“I fisici hanno conosciuto il peccato, e questa è una conoscenza che non si può perdere”. Così ebbe a dire, nel 1947, a proposito dei bombardamenti atomici di Hiroshima e Nagasaki Robert Oppenheimer, fisico e direttore del “Progetto Manhattan” che portò alla realizzazione della bomba atomica. Nel 2023 Geoffrey Hinton, uno dei padri fondatori del deep learning, annuncia le sue dimissioni da Google “per poter parlare dei pericoli” dell’Intelligenza artificiale. Un annuncio giunto dopo quello di Yoshua Bengio, un altro dei padrini del deep learning, che aveva dichiarato la necessità di “fare un passo indietro”.
In un’intervista che ho rilasciato a gennaio sostenevo come alla fine della Seconda guerra mondiale la nostra civiltà si era dovuta confrontare per la prima volta con un progresso tecnologico, il nucleare, che avrebbe potuto causare la nostra estinzione. Proseguivo affermando che allo stato attuale, ma ancora di più in prospettiva futura, per la seconda volta nella nostra storia ci troviamo ad affrontare uno sviluppo tecnologico portatore di analoghe conseguenze. Il fatto che, come quasi ottant’anni or sono, la comunità scientifica e le sue personalità di spicco si stiano ponendo su fronti opposti rispetto all’emergere delle intelligenze artificiali conferma la necessità di prendere in seria considerazione la questione.
Lo stesso Hinton afferma peraltro che non si tratta di fermarsi, ma di avere un approccio responsabile. A tal proposito, mi permetto di aggiungere che per riuscirci si dovrebbe essere consapevoli di quanto accade e su questo siamo ancora molto indietro. Di conseguenza, potrebbe restare lettera morta l’ammonimento di Matt Clifford, presidente della Advanced Research and Invention Agency del Regno Unito, quando afferma giustamente che “si possono trarre enormi vantaggi da questa tecnologia, ma è essenziale che il mondo investa pesantemente e con urgenza nella sicurezza e nel controllo dell’Intelligenza artificiale“. Se non sei consapevole del rischio, per quale ragione dovresti spendere tempo e soldi per limitarlo?
Il timore dell’olocausto nucleare ci ha permesso di sopravvivere a quella prima svolta tecnologica, staremo a vedere se anche questa volta la paura farà il suo dovere. Personalmente sono preoccupato perché, come ho detto e scritto migliaia di volte, siamo biologicamente inadatti a percepire un pericolo che si trova oltre uno schermo.
Fonte: ALESSANDRO CURIONI | Blog Francesco Macri