1. Preoccupazioni per gli sviluppi dell’intelligenza artificiale
Sarebbe piuttosto difficile – qualcuno potrebbe dire impossibile – progettare sistemi di IA etici ampiamente adottati. Una parte degli esperti che hanno risposto ha osservato che l’etica è difficile da definire, attuare e far rispettare. Hanno detto che il contesto conta quando si tratta di considerazioni etiche. Qualsiasi tentativo di creare regole etiche genera innumerevoli scenari diversi in cui l’applicazione di tali regole può essere disordinata. Anche la natura e il potere relativo degli attori in un dato scenario contano. Gli standard e le norme sociali si evolvono e possono diventare completamente diversi man mano che le culture cambiano. Poche persone hanno molta istruzione o formazione in etica. Inoltre, gli attori buoni e quelli cattivi sfruttano le lacune e le aree grigie in cui le regole etiche non sono chiare, quindi soluzioni alternative, patch o altri rimedi vengono spesso creati con diversi livelli di successo.
Gli esperti che hanno espresso preoccupazione hanno anche invocato preoccupazioni in materia di governance. Hanno chiesto: quali sistemi etici dovrebbero essere applicati? Chi può prendere quella decisione? Chi ha la responsabilità di preoccuparsi dell’implementazione dell’IA etica? Chi potrebbe imporre i regimi etici una volta stabiliti? Come?
Un gran numero di intervistati ha sostenuto che la concorrenza geopolitica ed economica sono i principali motori per gli sviluppatori di intelligenza artificiale, mentre le preoccupazioni morali passano in secondo piano. Una parte di questi esperti ha affermato che i creatori di strumenti di intelligenza artificiale lavorano in gruppi che hanno pochi o nessun incentivo a progettare sistemi che affrontino questioni etiche.
Alcuni intervistati hanno notato che, anche se si potessero stabilire requisiti etici realizzabili, questi non potrebbero essere applicati o disciplinati perché la maggior parte della progettazione dell’IA è proprietaria, nascosta e complessa. Come è possibile diagnosticare e affrontare i "risultati" dannosi dell'IA se non è possibile discernere la base delle "decisioni" dell'IA? Alcuni di questi esperti notano anche che i sistemi e i database di intelligenza artificiale esistenti vengono spesso utilizzati per creare nuove applicazioni di intelligenza artificiale. Ciò significa che i pregiudizi e gli aspetti eticamente preoccupanti dei sistemi attuali vengono incorporati nei nuovi sistemi. Dicono che diagnosticare e risolvere i problemi preesistenti può essere difficile se non impossibile da raggiungere.
Una parte di questi esperti ha infuso nelle loro risposte domande che equivalgono a questa domanda generale: come possono essere definiti e applicati gli standard etici per un universo globale, interculturale, in continua evoluzione e in continua espansione di diversi sistemi a scatola nera in cui i cattivi sistemi? prosperano gli attori e la disinformazione?
Una selezione dei commenti degli intervistati su questo ampio argomento è organizzata nelle prossime 20 pagine sotto questi sottotitoli: 1) Può essere difficile essere d'accordo su ciò che costituisce un comportamento etico. 2) Il problema sono gli esseri umani: di chi è l’etica? Chi decide? Che importa? Chi impone? 3) Come tutti gli strumenti, l’intelligenza artificiale può essere utilizzata nel bene o nel male, il che rende la definizione di standard una sfida. 4) L’ulteriore evoluzione dell’IA stessa solleva domande e complicazioni.
Stephen Downes,ricercatore senior per le tecnologie digitali presso il Consiglio nazionale delle ricerche del Canada, ha osservato: "Il problema con l'applicazione dei principi etici all'intelligenza artificiale è che non esiste un accordo comune su quali siano. Mentre è comune presumere che esista una sorta di Di unanimità sui principi etici, questa unanimità è raramente più ampia di una singola cultura, professione o gruppo sociale. Ciò è reso manifesto dalla facilità con cui perpetuiamo l’ingiustizia, l’ingiustizia e persino la violenza e la morte verso altre persone. Nessuna nazione è immune.
"Il problema con l'applicazione dei principi etici all'intelligenza artificiale è che non esiste un accordo comune su quali siano. Sebbene sia comune presumere che ci sia una sorta di unanimità sui principi etici, questa unanimità è raramente più ampia di una singola cultura, professione o gruppo sociale."
"A tutto ciò si aggiunge il fatto che l'intelligenza artificiale contemporanea non si basa su principi o regole. L'intelligenza artificiale moderna si basa sull'applicazione di funzioni matematiche su grandi raccolte di dati. Questo tipo di elaborazione non è facilmente modellato da principi etici; non esistono" buone " o funzioni matematiche "malvagie", e le distorsioni e i pregiudizi nei dati non sono facilmente identificabili né prevenibili. Nel frattempo, l'applicazione dell'intelligenza artificiale è sottodeterminata dal risultato; la stessa previsione, ad esempio, può essere utilizzata per fornire supporto sociale e assistenza a una persona bisognosa o per impedirle di ottenere lavoro, assicurazione o servizi finanziari.