Intelligenza artificiale per tutti – capire in modo facile il futuro

I timori più grandi riguardano il mondo del lavoro – i robot potrebbero, oggi in teoria, sostituirci in qualunque lavoro.

__________

Riporto per qualche riga dal sito scientifico : https://www.innlifes.com/digital-health/ai-act-e-sanita-senza-supervisione-umana-il-rischio-e-troppo-alto-e-inaccettabile/

” Medtech Europe fu la prima mesi fa a mostrare preoccupazione riguardo il sistema su cui è basato l’AI ACT, ossia la classificazione del rischio, che implica azioni specifiche da adottare a seconda della classe di rischio in cui un prodotto o servizio rientra. Rischio basso, medio e alto comportano azioni diverse: più alto il rischio per i diritti fondamentali degli individui e per la sicurezzapiù numerosi gli obblighi. Il Regolamento introduce anche l’idea di rischio non accettabile, secondo cui determinate caratteristiche di un modello di IA comporterebbero un rischio non accettabile (riconoscimento facciale e l’identificazione biometrica, manipolazione comportamentale, polizia predittiva, riconoscimento delle emozioni). Secondo i rappresentanti di Medtech Europe, c’è la possibilità che i dispositivi medici classificati non ad alto rischio nell’MDR (Il Regolamento Europeo sui Dispositivi Medici, n. 2017/745) vengano automaticamente classificati come sistemi ad alto rischio nell’AI Act, comportando oneri aggiuntivi e confusione per le aziende “.

L’alto rischio dei sistemi basati sull’IA nel settore Life Science

“Un’app di IA che rientra nell’ambito sanitario comporta la forte probabilità che venga classificata ad alto rischio”, sottolinea Roberto Reale dell’Agenzia per l’Italia Digitale. “Naturalmente questo implica tutta una serie di obblighi di gestione del rischio, della qualità, di governo dei dati, di gestione e tenuta di appositi registri, di trasparenza dell’algoritmo, sicurezza del progetto, per fare alcuni esempi, oltre anche di registrazione di questi sistemi su un database europeo”.

“Con molta probabilità”, prosegue, “con AI Act i prodotti che rientrano tra i dispositivi medici e che ora sono classificati a medio rischio rientreranno nei prodotti ad alto rischio”.

“La determinazione dell’alto rischio si compone di due parti” – chiarisce l’avv. Laura Cappello – “innanzitutto un sistema è considerato ad alto rischio se costituisce una componente di sicurezza di un prodotto (o di una parte del prodotto) regolato dalle normative di armonizzazione dell’Unione Europea elencate nell’allegato II del Regolamento stesso. Tra queste è presente il Regolamento sui Dispositivi Medici, che già include una classificazione in base al rischio. Anche la seconda parte della definizione dell’alto rischio è costituita da un elenco, contenuto nell’allegato III, che include otto macro-aree in cui i sistemi di IA utilizzati si presumono di alto rischio “.

__________

I politici stanno evitando questo argomento; brutto segno. 

 

Gli esperti  ci spiegano che se non ci diamo regole precise sull’intelligenza artificiale, quest’ultima  potrebbe sfuggirci di mano, con conseguenze catastrofiche.

Le macchine stanno cominciando a pensare autonomamente

Fai delle domande e il computer ti risponde, con modalità simili a quelle di una persona in carne e ossa.

Gli esempi più famosi sono forse le foto di Trump e del Papa; false ma assai credibili.

Ma l’intelligenza artificiale è quasi anche in grado di  accelerare cento volte il progresso in alcuni ambiti scientifici; per esempio quello medico.

In Corea ha vinto il candidato che ha avuto un clone che rispondeva meglio di lui stesso alle domande sul suo programma politico. 

In Corea ha vinto le elezioni il candidato, per la cui pubblicità  è stata trasmessa la sua copia creata dall’intelligenza artificiale che spiegava i motivi per cui avrebbero dovuto votarlo.

Con l’intelligenza artificiale prima si crea il falso poi lo si può scoprire; è come una continua corsa agli armamenti. 

Oggi è già sempre più difficile distinguere ciò che è creato artificialmente da ciò che è generato dall’umano.

Più uno sbilanciamento verso ciò che sarà visionato più frequentemente che verso la verità …

Ovviamente esistono già mezzi [intelligenze artificiali] che sono adibiti a scoprire i falsi generati dall’intelligenza artificiale, ma è una corsa continua …ci sarà sempre più uno sbilanciamento verso ciò che sarà visionato più frequentemente che verso la verità.

Chi vorrebbe un futuro sereno per figli e nipoti, dovrebbe almeno cercare di capire cosa sta succedendo; per evitare che qualche pazzo anche malato mentale prenda il potere per fare molto male a tutto il mondo; dobbiamo chiedere leggi sul futuro molto chiare e rapidamente !

I politici stanno evitando questo argomento; brutto segno. 

__
COPERTINA: ” FUTURO ” 20022 – particolare – Grazia Seregni Copyright© All rights reserved – Qualsiasi riproduzione, anche parziale, senza autorizzazione scritta è vietata. Legge 633 del 22 Aprile 1941 e successive modifiche.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

*