Tag

etica intelligenza artificiale

Browsing

Riflessioni sull’etica delle macchine

Questi sette punti sono stati stilati sulla base di tre diversi presupposti che una qualsiasi intelligenza artificiale deve possedere: legalità, eticità e robustezza. Legalità significa che deve attenersi alle regole e alle leggi presenti e future.

Eticità che deve fare riferimento a principi etici e morali in accordo con quelle che sono gli obiettivi di coesione sociale ed integrazione promulgati dalla comunità europea. Infine, la robustezza sia tecnica che sociale, che renderà l’intero sistema uno strumento sicuro da utilizzare (sistemi di intelligenza artificiale potrebbero causare gravi danni seppur non intenzionali).

I sette punti elencati non devono essere visti come delle regole fisse a cui ogni macchina deve attenersi, quanto piuttosto una linea guida da seguire per la creazione di una legislazione che possa essere usufruibile in futuro[1].

  • Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
  • Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  • Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  • Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  • Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

Un’intelligenza artificiale accuratamente programmata secondo queste “leggi” sarebbe un grosso passo in avanti per l’uomo, oltre che ad un supporto alla società ineguagliabile.

L’aiuto che può essere offerto riguarderebbe le più svariate forme: dalla medicina, all’ambiente, passando per l’organizzazione delle città (le cosiddette smart cities) e il mondo del lavoro. Esaminiamo ora alcune di queste questioni.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, URL consultato in data 28 agosto 2020.

Dr. Daniele Trevisani - Formazione Aziendale, Ricerca, Coaching