[AmadeuX BiblioForum]
Clicca qui per andare al sito di Audioterapia, Musica ed elementi subliminali benefici
19/04/2024 - 22:45:32
    [AmadeuX BiblioForum]                                     Ip: 3.143.218.146 - Sid: 377352876 - Visite oggi: 326 - Visite totali: 65.809.153

Home | Forum | Calendario | Registrati | Nuovi | Recenti | Segnalibro | Sondaggi | Utenti | Downloads | Ricerche | Aiuto

Nome Utente:
Password:
Salva Password
Password Dimenticata?

 Tutti i Forum
 Forums e Archivi PUBBLICI
 SUBLIMEN BiblioForum
 Pericoli dell'Intelligenza Artificiale

Nota: Devi essere registrato per poter inserire un messaggio.
Per registrarti, clicca qui. La Registrazione è semplice e gratuita!

Larghezza finestra:
Nome Utente:
Password:
Modo:
Formato: GrassettoCorsivoSottolineatoBarrato Aggiungi Spoiler Allinea a  SinistraCentraAllinea a Destra Riga Orizzontale Inserisci linkInserisci EmailInserisci FlashInserisci Immagine Inserisci CodiceInserisci CitazioneInserisci Lista Inserisci Faccine
   
Icona Messaggio:              
             
Messaggio:

  * Il codice HTML è OFF
* Il Codice Forum è ON

Faccine
Felice [:)] Davvero Felice [:D] Caldo [8D] Imbarazzato [:I]
Goloso [:P] Diavoletto [):] Occhiolino [;)] Clown [:o)]
Occhio Nero [B)] Palla Otto [8] Infelice [:(] Compiaciuto [8)]
Scioccato [:0] Arrabbiato [:(!] Morto [xx(] Assonnato [|)]
Bacio [:X] Approvazione [^] Disapprovazione [V] Domanda [?]

   Allega file
  Clicca qui per inserire la tua firma nel messaggio.
    

V I S U A L I Z Z A    D I S C U S S I O N E
admin Inserito il - 13/03/2019 : 10:08:55
I pericoli dell'Intelligenza Artificiale: 6 questioni delicate

Limitazione delle libertà personali, discriminazione, manipolazione dell’opinione pubblica: ecco i rischi che l'intelligenza artificiale porta con sé.

L'Intelligenza Artificiale ha già dimostrato tutto il suo potenziale nei più diversi ambiti della scienza e della tecnologia: dall’analisi del dati alla lotta al terrorismo, dalla ricerca medica alle missioni spaziali; big data e supercomputer promettono di rivoluzionare la nostra vita.

C'è però un "piccolo" problema... La potenza dei sistemi di AI, se male indirizzata, potrebbe diventare molto pericolosa. E non stiamo parlando del rischio di robot killer che si aggirano per le nostre città sparando a chiunque, ma di "cattivi usi", più sottili e altrettanto pericolosi, di applicazioni già oggi esistenti.

INCIDENTI SENZA CONDUCENTE. Il ciclista investito e ucciso lo scorso marzo negli Stati Uniti da una delle auto senza conducente di Uber ha riaperto il dibattito sull’effettiva maturità di questa tecnologia. Il sistema di guida della vettura non è infatti riuscito a identificare e classificare correttamente come “persona in bicicletta” la vittima: potrebbe averla scambiata per un sacchetto di plastica svolazzante e quindi averla consapevolmente travolta.

Un errore di programmazione dunque, che avrebbe potuto essere evitato con relativa facilità. Ma chi verifica l’effettiva sicurezza dei sistemi di guida autonoma? Chi si deve prendere la responsabilità di dare la patente ai robot? Dal punto di vista normativo la confusione è ancora tanta.

E l’intenzione dell’Highway Traffic Safety Administration, l'equivalente a stelle e strisce del nostro Ministero dei Trasporti, di ammorbidire le regole esistenti in materia, solleva più di qualche dubbio.

INFLUENZATI DAL BOT. Lo scandalo Cambridge Analytica, scoppiato a marzo 2018, ha invece evidenziato l’effettiva capacità dei social media di pilotare la coscienza politica delle persone dando maggiore risalto a certe notizie e a certe fonti di informazione a discapito di altre.
Lo stesso Mark Zuckerberg, durante un’audizione di fronte al Senato degli Stati Uniti, ha promesso al mondo la realizzazione di sistemi di intelligenza artificiale in grado di bloccare sul nascere la diffusione delle fake news, sia in formato testuale che video. Facebook dovrebbe cominciare la sperimentazione di questa tecnologia già dai prossimi mesi, in occasione delle tornate elettorali che si terranno in Nigeria e in Sud Africa.

AI PER LA PACE. Un altro caso è quello che ha visto protagonisti, lo scorso anno, alcuni ricercatori e impiegati di Google. Questi erano venuti a conoscenza della circostanza che la grande G avrebbe messo, con il Project Maven (questo il nome in codice del progetto), le sue tecnologie a disposizione del Pentagono per classificare e riconoscere immagini catturate da droni. In particolare il timore era che sistemi di Intelligenza Artificiale di casa Google potessero essere impiegati per fornire indicazioni a droni killer o per identificare bersagli da assegnare ad armi autonome.

Google ha accolto l’obiezione di coscienza dei suoi dipendenti e ha redatto e condiviso un codice etico per l’Intelligenza Artificiale, nel quale si impegna a non realizzare sistemi o software che utilizzino l’AI per arrecare danno all’uomo. Insomma, una moderna rilettura delle tre leggi della robotica di Asimov.

L'AI ci fa divertire con i videogiochi, ci semplifica la vita con gli assistenti vocali e collabora alla ricerca scientifica. Ma quali sono gli effetti collaterali? | MAXPIXELS

Ma il Pentagono sembra lasciarsi condizionare da questo dietrofront e, interessato com'è a raggiungere i suoi obiettivi, investirà anche nel 2019 somme ingenti per lo sviluppo di armi basate sull’Intelligenza Artificiale.

La parola ora passa alle Nazioni Unite, che nel corso dei prossimi mesi hanno in agenda diversi incontri sul tema, con l’obiettivo finale di una messa al bando definitiva e anticipata su questi sistemi d’arma.

IL GRANDE FRATELLO È TRA NOI. Che dire poi di quanto sta accadendo in Cina? Il Paese asiatico ha ammesso, nel corso del 2018, di aver realizzato il più vasto e capillare sistema di sorveglianza al mondo. Centinaia di migliaia di telecamere sparse per tutto il paese e un potentissimo software di riconoscimento facciale in grado di identificare praticamente chiunque: malviventi, ricercati, ma anche comuni cittadini, dissidenti politici o avversari del potere costituito.

Le associazioni per la tutela dei diritti umani mettono in guardia contro questa tecnologia, che già oggi permette di riconoscere i volti di tutti noi sui social network, di seguire i nostri spostamenti, di controllare le nostre frequentazioni. Secondo gli esperti del MIT nel corso dei prossimi mesi il riconoscimento facciale si spingerà ancora oltre e assisteremo alla comparsa di sistemi in grado di identificare le nostre emozioni davanti allo schermo, davanti a una vetrina o a uno scaffale del supermercato.

Ma si può sperare che vedremo anche le prime regolamentazioni legali sull’utilizzo di questi sistemi così invasivi.

OLTRE LE FAKE NEWS. Se il 2018 è stato l’anno delle fake news, il 2019 potrebbe essere l’anno dei fake video. Sistemi di intelligenza artificiale sempre più evoluti come i Generative Adversarial Network permettono infatti di realizzare, in modo tutto sommato abbastanza semplice, video del tutto fasulli, ma praticamente indistinguibili da quelli veri.

Nvidia, azienda leader nella computer graphics e nei videogiochi, ha presentato lo scorso dicembre un prototipo di software che utilizza l’intelligenza artificiale per realizzare immagini di persone del tutto inventate di ogni razza, età e sesso.

Il rischio, dal punto di vista politico, è particolarmente sentito, al punto che la stessa DARPA, l’agenzia del governo americano che si occupa di tecnologie militari, sta lavorando su sistemi di AI in grado di riconoscere i fake video. Riuscirà l’AI a metterci al riparo dai guai che causati dall’ AI?

In base a uno studio del Georgia Institute of Technology, alcuni sistemi di rilevamento immagine nei veicoli autonomi potrebbero avere più difficoltà a individuare i passanti con la pelle scura rispetto a quelli di carnagione chiara. In media, gli otto sistemi testati (nessuno dei quali, però, attualmente in uso) avevano un'accuratezza inferiore del 5% nell'accorgersi di pedoni di colore, anche quando si è tenuto conto di dettagli come la diversa ora del giorno o la presenza di barriere che potessero oscurare il volto di una persona. Forse questi algoritmi non sono stati allenati con un numero sufficiente di immagini di persone con la pelle scura, o non è stato dato peso a sufficienza al campione di soggetti con questa caratteristica.

PRECONCETTI DIGITALI. Infine c'è il tema del "pregiudizio", del quale sempre più spesso si sente parlare a proposito dei sistemi di intelligenza artificiale: è stato dimostrato infatti che se non sono correttamente programmati questi sistemi possono diventare razzisti e misogini, perché rispecchiano le convinzioni innate, e spesso inconsapevoli, di chi li ha creati. O, questo è l'altro rischio, potrebbero ereditare errori da comportamenti del passato e continuare a metterli in pratica anche nel futuro. Un esempio? Un sistema di riconoscimento visuale addestrato su dati "non equilibrati" potrebbe avere problemi a identificare correttamente le donne o le persone di colore. Oppure potrebbe accadere che sistema di AI, impiegato per selezionare il personale che un'azienda e che si basa su dati del passato, possa continuare a rispecchiare, nelle sue scelte, determinate discriminazioni che ha ereditato dal passato.

Si tratta di situazioni difficili da modificare perché ancora oggi, nelle aziende che si occupano di AI, il 70% dei ruoli manageriali è occupato da uomini. E questo accade anche nelle università. Inoltre i neri e sudamericani costituiscono una percentuale molto minore rispetto ai bianchi.

Il 2019 potrebbe però essere l’anno della svolta: gli esperti del settore si stanno infatti preparando alla prima grande conferenza su questo tipo di problematiche che si terrà in Etiopia nel 2020. Perché proprio questo Paese? Perché gli scienziati locali che si occupano di AI hanno spesso problemi ad ottenere i visti necessari all’espatrio.

12 MARZO 2019 | REBECCA MANTOVANI - focus.it






Macrolibrarsi


English French German Italian Spanish


[AmadeuX BiblioForum] © 2001-2024 AmadeuX MultiMedia network. All Rights Reserved. Torna all'inizio della Pagina