Il bisogno di cambiamento nella cultura tecnologica è fortemente sentito: da più parti si auspica che le intelligenze artificiali siano progettate e sviluppate in modo da essere allineate ai valori e ai princìpi etici della società e delle comunità che interessano. Ma una volta individuati valori e princìpi da seguire, come portarli all’interno del processo di design? Quali approcci e strumenti utilizzare per valutare gli impatti economici, sociali e ambientali delle tecnologie? Come evitare bias che possono generare disuguaglianza o esclusione? In questo intervento vedremo alcuni esempi concreti per un approccio umano all’intelligenza artificiale.
Speculative design. Guardare al futuro per progettare oggi prodotti e servizi...
Humanizing AI: approcci e strumenti pratici per sistemi di intelligenza artificiale umani, equi e responsabili
1. Debora Bottà, Tangity - NTT DATA
Humanizing AI
Approcci e strumenti pratici per sistemi di intelligenza artificiale
umani, equi e responsabili
Torino – 12 Novembre 2020
4. #WUDTorinowww.uxlab.it |
Human-centered design
Quanto progettiamo un prodotto o un
servizio, prendiamo decisioni che
riguardano la vita di altre persone.
Anche su come dovrebbero comportarsi.
Il design non è mai un atto neutrale.
Un design incentrato sull'uomo significa
che stiamo cercando di migliorare la vita
delle persone. Progettare per il bene.
Ma il bene di chi? Chi lo decide?
Foto di Arthur Brognoli da Pexels
6. #WUDTorinowww.uxlab.it |
Human-centered AI
L'intelligenza dei dati, da sola, non è in
grado di fornire esperienze significative.
L'IA da sola non sarà mai la soluzione.
Bisogna identificare dove e come i dati e
l'intelligenza possono soddisfare le
esigenze delle persone migliorandone
l'esperienza.
Il valore dell’AI non è dato dallo
strumento in sé, ma dall'esperienza che
genera.
Foto di Life of Wu da Pexels
7. #WUDTorinowww.uxlab.it |
«Designing AI to be trustworthy requires
creating solutions that reflect ethical
principles deeply rooted in important
and timeless values.»
MICROSOFT AI PRINCIPLES
8. #WUDTorinowww.uxlab.it |
Design e sviluppo sono chiamati a collaborare
per integrare princìpi etici nell’AI.
Foto di Markus Spiske da Pexels
13. #WUDTorinowww.uxlab.it |
1. Costruiamo una
mappa dei valori
Selezioniamo i valori universali
afferenti al contesto.
Ricerchiamo nel contesto quelli
specifici.
Quali preoccupazioni possono
essere ricondotte a ciascun valore?
14. #WUDTorinowww.uxlab.it |
2. Costruiamo una
mappa degli attori
Attori coinvolti in modo diretto e
indiretto.
Consideriamo anche gli esclusi.
Quali conseguenze indesiderate
relativamente a ogni valore si
possono verificare per ciascun
soggetto?
15. #WUDTorinowww.uxlab.it |
3. Conoscere i
bias cognitivi
Tanti, molti bias
influenzano come
vediamo le cose.
Acquisiamo
consapevolezza per
saperli riconoscere.
Quali bias potrebbero
maggiormente
influenzare la nostra
comprensione?
16. #WUDTorinowww.uxlab.it |
4. Prendiamoci
cura dei dati
Mappiamo le fonti e i dati a
disposizione.
Consideriamo leggi e diritti
ma interroghiamoci
anche sulle ragioni del
loro utilizzo.
Come massimizzare gli
effetti positivi sulle
persone? Come
minimizzare gli impatti
negativi?
17. #WUDTorinowww.uxlab.it |
5. Immagiamo
scenari distopici
Immaginiamo gli scenari peggiori
che possano accadere.
Possiamo pensare, discutere e
anticipare il peggio e definire le
azioni per evitare che diventi
realtà.
Quali possibili conseguenze,
implicazioni o risultati negativi
possono verificarsi?
18. #WUDTorinowww.uxlab.it |
6. Analizziamo ogni
singola funzionalità
Elenchiamo tutte le funzionalità.
Consideriamo per ciascuna effetti
nocivi o benefici.
Quali effetti vanno ridotti e quali
amplificati?