Usare l’intelligenza artificiale in modo etico: come si fa?

pubblicato in: AltroBlog 0
Usare l’intelligenza artificiale in modo etico: come si fa?

L’intelligenza artificiale è qui per restare. Saremo in grado di usarlo a beneficio dello sviluppo
della società? Abbiamo stabilito alcune linee guida per realizzarlo insieme.

Gli esseri umani, così desiderosi di confrontarsi con intelligenze che agiscono contro i nostri
interessi, si trovano in un momento critico, uno in cui devono affrontare la sfida dell’usare
l’intelligenza artificiale (IA) in modo etico. Questo progresso tecnologico promette una fioritura
senza precedenti, ma porta anche sfide e difficoltà che meritano riflessione e ulteriori azioni.

I cambiamenti accelerati generano una serie di problemi di natura sociale che sembrano non riuscire
ad adattarsi al ritmo. Cosa segna i limiti in questo tempo di trasformazione?

È proprio questa la risposta che delineeremo nello spazio seguente, cominciando col sottolineare che
è necessario stabilire dei limiti morali -e probabilmente anche legali– nell’utilizzo
dell’intelligenza artificiale; Altrimenti, ci esponiamo al fatto che lo sviluppo della civiltà
diventerà l’esatto contrario.

Modi per utilizzare l’intelligenza artificiale in modo etico

Il dibattito sull’IA e sul suo utilizzo è ampio e complesso. Tuttavia, c’è un certo accordo su
alcune norme morali al riguardo. Andiamo a vederli.

1. Intelligenza artificiale al servizio degli interessi umani

Annals of the Royal Academy of Moral and Political Sciences ha sottolineato in una pubblicazione che
da un punto di vista umanistico un’intelligenza artificiale ha il compito di minimizzare la
sofferenza evitabile delle persone. È qui che entra in gioco il concetto di “uso dannoso
dell’intelligenza artificiale”, riferito ai potenziali pericoli che l’uso improprio di questi
programmi pone alla società.

Pertanto, deve essere garantita la sicurezza delle persone, così come la privacy, l’identità e la
riservatezza degli ambienti. In caso contrario, il precetto di questa sezione verrebbe violato.

2. Evitare la dittatura dei dati

La raccolta di dati massicci (o big data) è il motore del progresso, ad esempio, in settori così
disparati come la tecnologia medica o lo sviluppo economico. Tuttavia, quando questi dati vengono
utilizzati per distorcere la popolazione e segregarla, si parla di “dittatura dei dati”, sottolinea
il bollettino del Consiglio superiore per la ricerca scientifica.

Continuando con l’esempio, un’intelligenza artificiale sarebbe in grado di raccogliere enormi
campioni dei risultati di un nuovo trattamento medico o dell’incidenza di problemi di salute. In
questo scenario, dovremmo chiederci fino a che punto è etico che un assicuratore abbia accesso a
questi dati per farci un preventivo o darci una copertura.

Medico che utilizza un programma di intelligenza artificiale in laboratorio

L’intelligenza artificiale è già applicabile in vari campi, motivo per cui sono urgentemente
necessari più regolamenti e legislazione al riguardo.

3. Rispettare i neurodiritti per usare l’intelligenza artificiale in modo etico

I big data potrebbero anche essere usati per fare previsioni sul comportamento umano. Questo viene
sfruttato, soprattutto, nel campo del marketing. In questo senso, per utilizzare eticamente
l’intelligenza artificiale, tali dati non dovrebbero essere uno strumento che influenza l’identità
degli utenti o la loro libertà cognitiva. Questo è ciò che si chiamano neurodiritti.

Nel campo dell’intelligenza artificiale, è essenziale garantire il rispetto dei neurodiritti nella
raccolta, archiviazione, analisi e utilizzo dei dati cerebrali. Pertanto, comporta l’ottenimento del
consenso informato ed esplicito delle persone prima di raccogliere dati dal loro cervello,
proteggere la privacy e la riservatezza di questi dati e garantire che vengano utilizzati in modo
etico e responsabile.

Inoltre, il rispetto dei neurodiritti deve garantire che l’intelligenza artificiale non venga
utilizzata per manipolare o influenzare indebitamente l’identità, la libertà cognitiva o l’autonomia
delle persone.

Comprende, quindi, evitare la discriminazione, la stigmatizzazione o la manipolazione basata sui
dati del cervello e garantire che le decisioni e le azioni basate sull’IA siano trasparenti,
spiegabili ed eque. È una bella sfida, dal momento che la maggior parte dei modelli con cui lavorano
le intelligenze artificiali sono opachi: danno buoni risultati, ma non sappiamo perché.

4. Preservare la dignità umana, un altro modo etico di usare l’intelligenza artificiale

Alcuni lavori, in particolare quelli di assistenza al cliente, sono considerati inadatti
all’intelligenza artificiale e ai robot. Questo perché richiedono la capacità di empatia e rispetto.
Così, ad esempio, non sarebbe etico sottoporre una persona a una terapia diretta dall’intelligenza
artificiale, né farle funzionare come poliziotti o giudici.

L’empatia nei robot pone sfide molto interessanti, a causa della natura delle emozioni e della
coscienza umane. Sebbene i robot possano essere programmati per riconoscere e rispondere alle
espressioni facciali umane, al tono della voce e ad altri segnali emotivi, non hanno ancora la
capacità di provare emozioni e capire nello stesso modo in cui lo facciamo noi.

A quest’area allude un lavoro presentato sulla rivista Economía y Sociedad, in cui spiegano che alle
tecnologie intelligenti vengono assegnate funzioni inerenti alla gestione delle emozioni, come fanno
gli esseri umani, cadendo in una contraddizione tra dovere morale e scenario in cui viene
implementato.

5. Brevetto libero

Nel dibattito sulle intelligenze artificiali prevale un’affermazione: il loro brevetto dovrebbe
essere aperto e pubblico. Il suo sviluppo non dovrebbe essere nelle mani di pochi, poiché è una
tecnologia che influenza direttamente la vita delle persone e la loro configurazione sociale,
persino la loro cultura. In questo modo si garantirebbe la trasparenza e si impedirebbe l’uso doloso
delle IA.

Sebbene l’intelligenza artificiale trasformi la cultura, l’uomo rimane impegnato in un uso
responsabile.

Perché usare l’intelligenza artificiale in modo etico?

Dalla sicurezza nazionale all’uso di un’app, passando per la politica e la medicina, l’uso
dell’intelligenza artificiale necessita di una revisione etica isolata da interessi particolari. Un
suo uso dannoso non solo causerebbe o aumenterebbe le minacce nella società, ma ne aggraverebbe
anche le conseguenze negative.

Poiché l’IA sta cambiando il nostro mondo e la nostra cultura, gli agenti passivi devono sviluppare,
parallelamente, una cultura della responsabilità e del buon uso di essa. Contrariamente a quanto
molti pensano, non si tratta solo di apprendere e applicare misure di sicurezza informatica.

In effetti, promuovere una tale cultura responsabile è solo il primo passo. È più che necessario
esigere che i governi e le aziende prendano misure per la gestione etica dell’IA, poiché la
riflessione morale è già iniziata. E ci sono stati alcuni progressi in questo senso, commenta una
pubblicazione di Global Law.

L’efficacia delle conclusioni di questa riflessione dipenderà dal fatto che raggiungano il loro
obiettivo umanistico, poiché, per il momento, quelli che ci dominano davvero sono gli umani dietro i
robot. Cioè, per ora, dietro ogni intelligenza artificiale c’è un’intelligenza umana.

Bibliografia

Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., et al.
(2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.
doi.org/10.17863/CAM.22520

Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias
Morales y Políticas, 379-394. Ministerio de Justicia.
www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394

García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de
Investigaciones Científicas.
www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica

González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la
inteligencia artificial. Economía y Sociedad, 25(57), 93-109.
dx.doi.org/10.15359/eys.25-57.5

Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la
Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin,
10(17), 107-130. dialnet.unirioja.es/servlet/articulo?codigo=8018155

Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y
jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de
2021.https://doi.org/10.32870/dgedj.v6i16.286

Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de
abril de 2023. unesdoc.unesco.org/ark:/48223/pf0000381137_spa

Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones
de Filosofía, 4(22).
www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabil
id

da lista mentem gg

Condividi:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *