L’intelligenza artificiale è qui per restare. Saremo in grado di usarlo a beneficio dello sviluppo
della società? Abbiamo stabilito alcune linee guida per realizzarlo insieme.
Gli esseri umani, così desiderosi di confrontarsi con intelligenze che agiscono contro i nostri
interessi, si trovano in un momento critico, uno in cui devono affrontare la sfida dellusare
lintelligenza artificiale (IA) in modo etico. Questo progresso tecnologico promette una fioritura
senza precedenti, ma porta anche sfide e difficoltà che meritano riflessione e ulteriori azioni.
I cambiamenti accelerati generano una serie di problemi di natura sociale che sembrano non riuscire
ad adattarsi al ritmo. Cosa segna i limiti in questo tempo di trasformazione?
È proprio questa la risposta che delineeremo nello spazio seguente, cominciando col sottolineare che
è necessario stabilire dei limiti morali -e probabilmente anche legali nellutilizzo
dellintelligenza artificiale; Altrimenti, ci esponiamo al fatto che lo sviluppo della civiltà
diventerà lesatto contrario.
Modi per utilizzare lintelligenza artificiale in modo etico
Il dibattito sullIA e sul suo utilizzo è ampio e complesso. Tuttavia, cè un certo accordo su
alcune norme morali al riguardo. Andiamo a vederli.
1. Intelligenza artificiale al servizio degli interessi umani
Annals of the Royal Academy of Moral and Political Sciences ha sottolineato in una pubblicazione che
da un punto di vista umanistico unintelligenza artificiale ha il compito di minimizzare la
sofferenza evitabile delle persone. È qui che entra in gioco il concetto di uso dannoso
dellintelligenza artificiale, riferito ai potenziali pericoli che luso improprio di questi
programmi pone alla società.
Pertanto, deve essere garantita la sicurezza delle persone, così come la privacy, lidentità e la
riservatezza degli ambienti. In caso contrario, il precetto di questa sezione verrebbe violato.
2. Evitare la dittatura dei dati
La raccolta di dati massicci (o big data) è il motore del progresso, ad esempio, in settori così
disparati come la tecnologia medica o lo sviluppo economico. Tuttavia, quando questi dati vengono
utilizzati per distorcere la popolazione e segregarla, si parla di dittatura dei dati, sottolinea
il bollettino del Consiglio superiore per la ricerca scientifica.
Continuando con lesempio, unintelligenza artificiale sarebbe in grado di raccogliere enormi
campioni dei risultati di un nuovo trattamento medico o dellincidenza di problemi di salute. In
questo scenario, dovremmo chiederci fino a che punto è etico che un assicuratore abbia accesso a
questi dati per farci un preventivo o darci una copertura.
Medico che utilizza un programma di intelligenza artificiale in laboratorio
Lintelligenza artificiale è già applicabile in vari campi, motivo per cui sono urgentemente
necessari più regolamenti e legislazione al riguardo.
3. Rispettare i neurodiritti per usare lintelligenza artificiale in modo etico
I big data potrebbero anche essere usati per fare previsioni sul comportamento umano. Questo viene
sfruttato, soprattutto, nel campo del marketing. In questo senso, per utilizzare eticamente
lintelligenza artificiale, tali dati non dovrebbero essere uno strumento che influenza lidentità
degli utenti o la loro libertà cognitiva. Questo è ciò che si chiamano neurodiritti.
Nel campo dellintelligenza artificiale, è essenziale garantire il rispetto dei neurodiritti nella
raccolta, archiviazione, analisi e utilizzo dei dati cerebrali. Pertanto, comporta lottenimento del
consenso informato ed esplicito delle persone prima di raccogliere dati dal loro cervello,
proteggere la privacy e la riservatezza di questi dati e garantire che vengano utilizzati in modo
etico e responsabile.
Inoltre, il rispetto dei neurodiritti deve garantire che lintelligenza artificiale non venga
utilizzata per manipolare o influenzare indebitamente lidentità, la libertà cognitiva o lautonomia
delle persone.
Comprende, quindi, evitare la discriminazione, la stigmatizzazione o la manipolazione basata sui
dati del cervello e garantire che le decisioni e le azioni basate sullIA siano trasparenti,
spiegabili ed eque. È una bella sfida, dal momento che la maggior parte dei modelli con cui lavorano
le intelligenze artificiali sono opachi: danno buoni risultati, ma non sappiamo perché.
4. Preservare la dignità umana, un altro modo etico di usare lintelligenza artificiale
Alcuni lavori, in particolare quelli di assistenza al cliente, sono considerati inadatti
allintelligenza artificiale e ai robot. Questo perché richiedono la capacità di empatia e rispetto.
Così, ad esempio, non sarebbe etico sottoporre una persona a una terapia diretta dallintelligenza
artificiale, né farle funzionare come poliziotti o giudici.
Lempatia nei robot pone sfide molto interessanti, a causa della natura delle emozioni e della
coscienza umane. Sebbene i robot possano essere programmati per riconoscere e rispondere alle
espressioni facciali umane, al tono della voce e ad altri segnali emotivi, non hanno ancora la
capacità di provare emozioni e capire nello stesso modo in cui lo facciamo noi.
A questarea allude un lavoro presentato sulla rivista Economía y Sociedad, in cui spiegano che alle
tecnologie intelligenti vengono assegnate funzioni inerenti alla gestione delle emozioni, come fanno
gli esseri umani, cadendo in una contraddizione tra dovere morale e scenario in cui viene
implementato.
5. Brevetto libero
Nel dibattito sulle intelligenze artificiali prevale unaffermazione: il loro brevetto dovrebbe
essere aperto e pubblico. Il suo sviluppo non dovrebbe essere nelle mani di pochi, poiché è una
tecnologia che influenza direttamente la vita delle persone e la loro configurazione sociale,
persino la loro cultura. In questo modo si garantirebbe la trasparenza e si impedirebbe luso doloso
delle IA.
Sebbene lintelligenza artificiale trasformi la cultura, luomo rimane impegnato in un uso
responsabile.
Perché usare lintelligenza artificiale in modo etico?
Dalla sicurezza nazionale alluso di unapp, passando per la politica e la medicina, luso
dellintelligenza artificiale necessita di una revisione etica isolata da interessi particolari. Un
suo uso dannoso non solo causerebbe o aumenterebbe le minacce nella società, ma ne aggraverebbe
anche le conseguenze negative.
Poiché lIA sta cambiando il nostro mondo e la nostra cultura, gli agenti passivi devono sviluppare,
parallelamente, una cultura della responsabilità e del buon uso di essa. Contrariamente a quanto
molti pensano, non si tratta solo di apprendere e applicare misure di sicurezza informatica.
In effetti, promuovere una tale cultura responsabile è solo il primo passo. È più che necessario
esigere che i governi e le aziende prendano misure per la gestione etica dellIA, poiché la
riflessione morale è già iniziata. E ci sono stati alcuni progressi in questo senso, commenta una
pubblicazione di Global Law.
Lefficacia delle conclusioni di questa riflessione dipenderà dal fatto che raggiungano il loro
obiettivo umanistico, poiché, per il momento, quelli che ci dominano davvero sono gli umani dietro i
robot. Cioè, per ora, dietro ogni intelligenza artificiale cè unintelligenza umana.
Bibliografia
Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., et al.
(2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.
doi.org/10.17863/CAM.22520
Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias
Morales y Políticas, 379-394. Ministerio de Justicia.
www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394
García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de
Investigaciones Científicas.
www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica
González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la
inteligencia artificial. Economía y Sociedad, 25(57), 93-109.
dx.doi.org/10.15359/eys.25-57.5
Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la
Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin,
10(17), 107-130. dialnet.unirioja.es/servlet/articulo?codigo=8018155
Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y
jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de
2021.https://doi.org/10.32870/dgedj.v6i16.286
Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de
abril de 2023. unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones
de Filosofía, 4(22).
www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabil
id
da lista mentem gg
Lascia un commento