Firmato un accordo con l’Università ungherese Gál Ferenc

Giovedì 11 aprile 2024, l’Università Pontificia Salesiana ha sottoscritto un accordo con l’Università ungherese Gál Ferenc che prevede, in particolare, attività di collaborazione con l’Istituto di Catechetica.

Diverse le possibilità di cooperazione che vanno dalla condivisione di progetti di ricerca e percorsi didattici allo scambio e collaborazione tra docenti delle due università.

Il Rettore, prof. don Andrea Bozzolo, insieme al Segretario Generale don Jaroslaw Rochowiak e al prof. Ubaldo Montisci, ha accolto la delegazione ungherese composta dal Rettore dell’Università Gál Ferenc, prof. László Dux; dal direttore per gli affari internazionali della Diocesi di Szeged-Csanád, dott. Róth Márton; dal Vescovo della Diocesi di Szeged-Csanád, mons. László Kiss-Rigó; dal Rettore del seminario della Diocesi di Szeged-Csanád, Kovács József e dal Direttore dell’Istituto di Catechetica e nostro ex allievo, Levente Gabor Serfózó.

 

unisal 12 aprile 2024

Resilienza e speranza cristiana. L’educazione religiosa come fonte essenziale di ispirazione in tempi di crisi

XXI Forum EuFRES (Poprad, 3-7 aprile 2024)

Si è svolto a Poprad (Slovacchia) il XXI Forum europeo sull’educazione religiosa nelle scuole (EuFRES) sul tema Resilienza e speranza cristiana. L’educazione religiosa come fonte essenziale di ispirazione in tempi di crisi (3-7 aprile 2024). Hanno partecipato all’evento una quarantina di docenti universitari di pedagogia religiosa e catechetica provenienti da diverse nazioni europee. Il gruppo più nutrito è stato quello polacco; erano poi presenti rappresentanti dell’Austria, Croazia, Germania, Italia, Repubblica Ceca; Slovacchia; Slovenia; Spagna. Per l’Istituto di Catechetica era presente il prof. Ubaldo Montisci. Le giornate erano organizzate intorno a una conferenza mattutina con, a seguire, dei lavori per gruppi linguistici e, nel pomeriggio, la presentazione della situazione dell’insegnamento religioso nelle diverse nazioni e di buone pratiche per quanto riguarda la resilienza. Ampi spazi di dialogo informale, delle uscite in luoghi culturalmente e artisticamente significativi, hanno garantito un clima di fraternità che ha dato ulteriore qualità all’esperienza.

In estrema sintesi, dall’insieme dei lavori si può riassumere il compito dell’IRC intorno ai seguenti principi: controverso; critico; costruttivo; che prende posizione; partecipativo e pratico.

Per gentile concessione dell’EuFRES, possiamo offrire ai lettori di RPR il discorso introduttivo del Presidente EuFRES, Roman Buchta (file 0); la relazione di Zbigniew Formella (file 0); le diapositive della conferenza on line di Claudia Gärtner (file 0 formato PDF); gli interventi che presentano le situazioni dell’insegnamento religioso nelle varie nazioni (file 1-6) e le buone pratiche che riguardano la resilienza ma non solo (file (7-13). Chiude la rassegna un breve contributo con alcune indicazioni storiche sull’EuFRES (file 14).

Le relazioni sono state fatte nella lingua madre dei relatori. Qui presentiamo la versione italiana e inglese. I testi non sono stati rivisti e risentono dei limiti delle traduzioni digitali. Ci scusiamo per le eventuali imprecisioni.

Programma EuFRES

14. La breve storia di EuFRES (AThF)

0. Gaertner

0. Buchta it     0. Buchta En

0. Formella it    0. Formella eng

1. Borda it     1. Borda eng

2. Polak it

3. Genčúrová it    3. Genčúrová EN

4.Vodičar-Kraner it     4. Vodičar-Kraner

5. Labendowicz eng

6. Wierzbicki ita      6. Wierzbicki eng

7. Blaščíková it       7. Blaščíková eng

8. Kicinski – ita    8. Kicinski – eng

9. Kielian ita       9. Kielian eng

10. Kubiak_it      10. Kubiak_ENG

11. Ana Thea Filipović – Text EN       11. Ana Thea Filipović it

12. Osewska ital      12. Osewska eng

13. A. Zellma. R. Czerwiński. ENG

per gli studenti di lingua inglese questo manuale recente (con un contributo su Religious Education), è disponibile gratuitamente (grazie al supporto della Chiesa Evangelica tedesca):

https://www.degruyter.com/document/doi/10.1515/9783110618150/html

Qualche scatto:

GIORNALISMO E RELIGIONI: corso di aggiornamento

Portiamo a vostra conoscenza il Corso di Aggiornamento in programma a partire dal prossimo 24 febbraio 2024:

GIORNALISMO E RELIGIONI
(20 ORE IN PRESENZA E ONLINE)

Docente: Prof.ssa Cristina Uguccioni, giornalista professionista
Interverranno:
Dott. Fabrizio Mastrofini, giornalista professionista (2 ore)
Prof. Pierangelo Sequeri, teologo (2 ore)
Prof.ssa Mariapia Veladiano, scrittrice (2 ore)

 

OBIETTIVI PRINCIPALI DEL CORSO
Offrire una formazione teorica e tecnica in materia di informazione religiosa a quanti, a vario titolo, lavorano nell’ambito della comunicazione; proporre agli insegnanti di religione e di altri ambiti disciplinari alcune competenze specifiche, anche tecniche, per affrontare sotto diversi aspetti il tema della informazione relativa alle diverse religioni.

A questo scopo saranno presi in esame argomenti quali, ad esempio: i doveri e le peculiarità del buon giornalista, la ricerca delle notizie religiose, le fonti per le diverse religioni, come la scuola aiuta a capire le notizie religiose, il corretto uso del linguaggio, notizie religiose e social media, notizie religiose e fake news, i modi per relazionarsi con i media.

 

sabato mattina 9.30 – 11.10

Calendario:    24 febbraio; 2, 9, 16, 23 marzo; 13, 20 aprile; 4, 11, 18 maggio 2024

 

Per la domanda di iscrizione:

https://www.issrmilano.it/2023/12/14/dfp-corsi-di-aggiornamento-a-a-2023-24/

VOLANTINO

Istantanee del Seminario ICa: «Religione e cultura, prove di epistemologia per l’IRC»

Si è svolto nei giorni scorsi il Seminario «Religione e cultura, prove di epistemologia per l’IRC» promosso dall’Istituto di Catechetica. Su invito, erano presenti 35 docenti, esperti e responsabili del settore scolastico dell’Insegnamento della Religione Cattolica (IRC). La convinzione di base è che l’IRC possa e debba essere letto in chiave “culturale”, sia per l’ambiente scolastico di cui fa parte a pieno titolo, sia per fedeltà al dettato concordatario che fonda l’insegnamento della religione sul “valore della cultura religiosa”. Partendo dalla consapevolezza che la Chiesa ha da sempre portato il suo contributo alla promozione della cultura, favorendone l’umanizzazione nel confronto con la visione teologica cristiana e i valori evangelici, ci si è interrogati sulla religione intesa come oggetto culturale e sul significato della cultura, a sua volta oggetto di tutta l’azione della scuola.

L’introduzione ai lavori del prof. Giampaolo Usai, moderatore della prima parte dell’incontro; le dense relazioni dei proff. Sergio Cicatelli, Appunti per un IRC come cultura religiosa, e Flavia Montagnini, Praticabilità pedagogico-didattica della proposta; gli interventi provocanti dei due discussant, il filosofo Paolo Zini e il sociologo Massimiliano Padula; il contributo al dialogo degli esperti presenti hanno dato vita a una riflessione profonda e appassionata sul tema vitale per la Scuola e l’IRC.

 

In allegato si mette a disposizione del lettore la sintesi dei lavori a opera della prof.ssa Cristina Carnevale, che ha moderato la seconda parte dell’incontro.

Linee conclusive

 

Istantanee:

Corso online: “Anch’io so voler bene: Affettività e sessualità nella persona con disabilità”

Siamo lieti di comunicare che tutti i mercoledì, a partire dal prossimo mercoledì 24 gennaio 2024, si terrà il Corso online, della durata di dieci incontri, riguardante l’affettività e la sessualità nella persone con disabilità dal titolo: “Anch’io so voler bene: affettività e sessualità nella persona con disabilità”. Soltanto per il primo incontro del 24 gennaio l’orario è dalle 20.15 alle 21.45. Gli incontri successivi invece si terranno tutti dalle ore 20.20 alle ore 21.30.  In allegato desideriamo inviarvi la locandina.

L’iniziativa, organizzata da questo Servizio Nazionale per la pastorale delle persone con disabilità e dal Servizio Nazionale per la tutela dei minori della Conferenza Episcopale Italiana, è aperta ai referenti diocesani, genitori, caregiver e coloro che operano nelle strutture residenziali. Di assoluto rilievo è la caratura dei relatori.

Per poter partecipare è necessaria l’iscrizione, entro il 21 gennaio, da effettuare attraverso il Servizio per la pastorale delle persone con disabilità della propria diocesi di appartenenza o in alternativa, in mancanza di questo, attraverso il Servizio per la tutela dei minori sempre della propria diocesi di appartenenza, inviando pertanto una richiesta di iscrizione al corso ai relativi responsabili diocesani di uno dei due Servizi.

 

La Segreteria di questo Servizio Nazionale, comunque, è a vostra disposizione per ogni eventuale necessità ai seguenti recapiti:

e-mail pastoraledisabili@chiesacattolica.it;

 

LOCANDINA EVENTO

 

_____________________________________________________

Conferenza Episcopale Italiana
Servizio Nazionale per la Pastorale delle Persone con disabilità
Circonvallazione Aurelia, 50
00165 Roma
Tel. 06 66398.311 / 230
Cell. 342-1215390
Fax. 06 69398204
https://pastoraledisabili.chiesacattolica.it

 

La gestione della classe e degli alunni difficili

Venerdì 26 e sabato 27 gennaio 2024 presso l’Università Salesiana di Roma, l’istituto di Psicologia organizza un corso di formazione e aggiornamento dedicato alle strategie innovative per affrontare le sfide della gestione della classe e per supportare gli alunni nell’ambito scolastico. Il corso di formazione e aggiornamento vuole fornire competenze teoriche e pratiche sulle dinamiche e la gestione del gruppo classe con focalizzazione sulle difficoltà di relazione con classi e alunni difficili nella scuola. A tal proposito, sarà presentata una proposta formativa specifica che consenta di acquisire le abilità necessarie per un intervento efficace tra i diversi soggetti coinvolti nell’ambiente scolastico (insegnanti, alunni e genitori). Il corso pone l’accento sulle possibilità di un intervento mirato alla prevenzione e alla promozione di un benessere socio-relazionale nella scuola, nonché alla gestione e al recupero delle situazioni di classi e alunni problematiche, utilizzando un approccio teorico integrato e materiale operativo da utilizzare nei diversi ordini e gradi di scuola.

Obiettivi del corso:

  • Comprendere i fattori che facilitano e ostacolano la gestione del gruppo classe;
  • aumentare le competenze gestionali di un gruppo classe;
  • aumentare la competenza concreta dei docenti nella gestione delle regole all’interno della classe e
    della scuola;
  • migliorare la collaborazione scuola-famiglia;
  • aumentare le competenze gestionali sul conflitto;
  • comprendere come gestire gli “alunni difficili”.

Destinatari:

  • Insegnanti (di ogni ordine e grado)
  • Dirigenti Scolastici
  • Psicologi scolastici
  • Educatori

Programma:

  • Modulo 1 – Il gruppo classe Prof. Marco Maggi (venerdì 26 Gennaio ore 15.00-19.00): La scuola è una comunità, La classe è un gruppo!, Che cos’è un gruppo?, I fenomeni di una vita di gruppo, Le fasi di sviluppo di un gruppo, La gestione del gruppo classe, Ruoli e leader e leaderschip, Dinamiche di gruppo, Il metodo Freedom writers.
  • Modulo 2 – Alunni difficili e gestione dei conflitti | Prof. Alessandro Ricci (sabato 27 Gennaio ore 9.00-13.00): Disagio e il disagio scolastico, Segnali di disagio, Gestire I comportamenti problema, Studenti “difficili”, Il conflitto e le diverse tipologie del conflitto, Origini e cause del conflitto, L’arco di vita di un conflitto, Gli elementi fondamentali di un conflitto: come analizzarlo?, I diversi modi di affrontare il conflitto, Tecniche per la gestione del conflitto.
  • Modulo 3 – Le regole e gli studenti e le famiglie di oggi | Prof. Zbigniew Formella (sabato 27 Gennaio ore 14.00-18.00): Le norme e le regole, Diritti e doveri, La funzione delle regole a scuola, Lo sviluppo sociale e morale, La regola limita, Regole prescrittive a scuola, Autorità, Interiorizzazione delle regole: obbedienza o responsabilità?, Trasgressioni e sanzioni, Regole discrezionali, Collaborazione e alleanza educativa famiglia-scuola

Dettagli del corso:

  • Sede: Università Pontificia Salesiana, Piazza dell’Ateneo Salesiano, 1, 00139-Roma
  • Durata: 12 ore
  • Tempi e modalità d’iscrizione: entro il 23 gennaio 2024, scrivere a psicologia@unisal.it
  • Costo: 100,00 euro (IBAN: IT76T0569603219000004600X29 – intestato a PONTIFICIO ATENEO SALESIANO)
  • Previsto il pagamento tramite la carta del docente
  • Il corso è registrato sulla piattaforma S.O.F.I.A. (id 89918)

Contatti: + 39 06 87290 308 – e-mail: psicologia@unisal.it

Intelligenza artificiale e pace

Messaggio per la 57a Giornata mondiale della pace

Francesco

«La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace. Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso». Il tema di fondo del messaggio di papa Francesco per la 57a Giornata mondiale della pace (1.1.2024), che è stato pubblicato il 14 dicembre, è quello dell’intelligenza artificiale, che secondo il pontefice fa parte dei «prodotti straordinari» del «potenziale creativo» dell’intelligenza umana, a patto però di essere al servizio della dignità intrinseca dell’uomo e della promozione della giustizia e della fraternità.

Il messaggio è intitolato Intelligenza artificiale e pace, e indica la «necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica – in cui siano i valori a orientare i percorsi delle nuove tecnologie».

Stampa (14.12.2023) da sito web www.vatican.va.

 

All’inizio del nuovo anno, tempo di grazia che il Signore dona a ciascuno di noi, vorrei rivolgermi al popolo di Dio, alle nazioni, ai capi di stato e di governo, ai rappresentanti delle diverse religioni e della società civile, a tutti gli uomini e le donne del nostro tempo per porgere i miei auguri di pace.

1. Il progresso della scienza e della tecnologia come via verso la pace

La sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano «saggezza, intelligenza e scienza in ogni genere di lavoro» (Es 35,31). L’intelligenza è espressione della dignità donataci dal Creatore, che ci ha fatti a sua immagine e somiglianza (cf. Gen 1,26) e ci ha messo in grado di rispondere al suo amore attraverso la libertà e la conoscenza. La scienza e la tecnologia manifestano in modo particolare tale qualità fondamentalmente relazionale dell’intelligenza umana: sono prodotti straordinari del suo potenziale creativo.

Nella costituzione pastorale Gaudium et spes, il concilio Vaticano II ha ribadito questa verità, dichiarando che «col suo lavoro e col suo ingegno l’uomo ha cercato sempre di sviluppare la propria vita». Quando gli esseri umani, «con l’aiuto della tecnica», si sforzano affinché la terra «diventi una dimora degna di tutta la famiglia umana», agiscono secondo il disegno di Dio e cooperano con la sua volontà di portare a compimento la creazione e di diffondere la pace tra i popoli. Anche il progresso della scienza e della tecnica, nella misura in cui contribuisce a un migliore ordine della società umana, ad accrescere la libertà e la comunione fraterna, porta dunque al miglioramento dell’uomo e alla trasformazione del mondo.

Giustamente ci rallegriamo e siamo riconoscenti per le straordinarie conquiste della scienza e della tecnologia, grazie alle quali si è posto rimedio a innumerevoli mali che affliggevano la vita umana e causavano grandi sofferenze. Allo stesso tempo i progressi tecnico-scientifici, rendendo possibile l’esercizio di un controllo finora inedito sulla realtà, stanno mettendo nelle mani dell’uomo una vasta gamma di possibilità, alcune delle quali possono rappresentare un rischio per la sopravvivenza e un pericolo per la casa comune.

I notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli. È pertanto necessario porsi alcune domande urgenti. Quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace?

 

2. Il futuro dell’intelligenza artificiale tra promesse e rischi

I progressi dell’informatica e lo sviluppo delle tecnologie digitali negli ultimi decenni hanno già iniziato a produrre profonde trasformazioni nella società globale e nelle sue dinamiche. I nuovi strumenti digitali stanno cambiando il volto delle comunicazioni, della pubblica amministrazione, dell’istruzione, dei consumi, delle interazioni personali e di innumerevoli altri aspetti della vita quotidiana.

Inoltre le tecnologie che impiegano una molteplicità di algoritmi possono estrarre, dalle tracce digitali lasciate su Internet, dati che consentono di controllare le abitudini mentali e relazionali delle persone a fini commerciali o politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta. Infatti in uno spazio come il web, caratterizzato da un sovraccarico di informazioni, possono strutturare il flusso di dati secondo criteri di selezione non sempre percepiti dall’utente.

Dobbiamo ricordare che la ricerca scientifica e le innovazioni tecnologiche non sono disincarnate dalla realtà e «neutrali», ma soggette alle influenze culturali. In quanto attività pienamente umane, le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca. Dicasi lo stesso per i risultati che conseguono: essi, proprio in quanto frutto di approcci specificamente umani al mondo circostante, hanno sempre una dimensione etica, strettamente legata alle decisioni di chi progetta la sperimentazione e indirizza la produzione verso particolari obiettivi.

Questo vale anche per le forme di intelligenza artificiale. Di essa, a oggi, non esiste una definizione univoca nel mondo della scienza e della tecnologia. Il termine stesso, ormai entrato nel linguaggio comune, abbraccia una varietà di scienze, teorie e tecniche volte a far sì che le macchine riproducano o imitino, nel loro funzionamento, le capacità cognitive degli esseri umani. Parlare al plurale di «forme di intelligenza» può aiutare a sottolineare soprattutto il divario incolmabile che esiste tra questi sistemi, per quanto sorprendenti e potenti, e la persona umana: essi sono, in ultima analisi, «frammentari», nel senso che possono solo imitare o riprodurre alcune funzioni dell’intelligenza umana. L’uso del plurale evidenzia inoltre che questi dispositivi, molto diversi tra loro, vanno sempre considerati come «sistemi socio-tecnici». Infatti il loro impatto, al di là della tecnologia di base, dipende non solo dalla progettazione, ma anche dagli obiettivi e dagli interessi di chi li possiede e di chi li sviluppa, nonché dalle situazioni in cui vengono impiegati.

L’intelligenza artificiale, quindi, deve essere intesa come una galassia di realtà diverse e non possiamo presumere a priori che il suo sviluppo apporti un contributo benefico al futuro dell’umanità e alla pace tra i popoli. Tale risultato positivo sarà possibile solo se ci dimostreremo capaci di agire in modo responsabile e di rispettare valori umani fondamentali come «l’inclusione, la trasparenza, la sicurezza, l’equità, la riservatezza e l’affidabilità».

Non è sufficiente nemmeno presumere, da parte di chi progetta algoritmi e tecnologie digitali, un impegno ad agire in modo etico e responsabile. Occorre rafforzare o, se necessario, istituire organismi incaricati di esaminare le questioni eti-che emergenti e di tutelare i diritti di quanti utilizzano forme di intelligenza artificiale o ne sono influenzati.

L’immensa espansione della tecnologia deve quindi essere accompagnata da un’adeguata formazione alla responsabilità per il suo sviluppo. La libertà e la convivenza pacifica sono minacciate quando gli esseri umani cedono alla tentazione dell’egoismo, dell’interesse personale, della brama di profitto e della sete di potere. Abbiamo perciò il dovere di allargare lo sguardo e di orientare la ricerca tecnico-scientifica al perseguimento della pace e del bene comune, al servizio dello sviluppo integrale dell’uomo e della comunità.

La dignità intrinseca di ogni persona e la fraternità che ci lega come membri dell’unica famiglia umana devono stare alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace. Gli sviluppi tecnologici che non portano a un miglioramento della qualità di vita di tutta l’umanità, ma al contrario aggravano le disuguaglianze e i conflitti, non potranno mai essere considerati vero progresso.

L’intelligenza artificiale diventerà sempre più importante. Le sfide che pone sono tecniche, ma anche antropologiche, educative, sociali e politiche. Promette, ad esempio, un risparmio di fatiche, una produzione più efficiente, trasporti più agevoli e mercati più dinamici, oltre a una rivoluzione nei processi di raccolta, organizzazione e verifica dei dati. Occorre essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali, rispettando le istituzioni e le leggi che promuovono lo sviluppo umano integrale. L’intelligenza artificiale dovrebbe essere al servizio del migliore potenziale umano e delle nostre più alte aspirazioni, non in competizione con essi.

 

3. La tecnologia del futuro: macchine che imparano da sole

Nelle sue molteplici forme l’intelligenza artificiale, basata su tecniche di apprendimento automatico (machine learning), pur essendo ancora in fase pionieristica, sta già introducendo notevoli cambiamenti nel tessuto delle società, esercitando una profonda influenza sulle culture, sui comportamenti sociali e sulla costruzione della pace.

Sviluppi come il machine learning o come l’apprendimento profondo (deep learning) sollevano questioni che trascendono gli ambiti della tecnologia e dell’ingegneria e hanno a che fare con una comprensione strettamente connessa al significato della vita umana, ai processi basilari della conoscenza e alla capacità della mente di raggiungere la verità.

L’abilità di alcuni dispositivi nel produrre testi sintatticamente e semanticamente coerenti, ad esempio, non è garanzia di affidabilità. Si dice che possano «allucinare», cioè generare affermazioni che a prima vista sembrano plausibili, ma che in realtà sono infondate o tradiscono pregiudizi. Questo pone un serio problema quando l’intelligenza artificiale viene impiegata in campagne di disinformazione che diffondono notizie false e portano a una crescente sfiducia nei confronti dei mezzi di comunicazione. La riservatezza, il possesso dei dati e la proprietà intellettuale sono altri ambiti in cui le tecnologie in questione comportano gravi rischi, a cui si aggiungono ulteriori conseguenze negative legate a un loro uso improprio, come la discriminazione, l’interferenza nei processi elettorali, il prendere piede di una società che sorveglia e controlla le persone, l’esclusione digitale e l’inasprimento di un individualismo semri rischiano di alimentare i conflitti e di ostacolare la pace.

 

4. Il senso del limite nel paradigma tecnocratico

Il nostro mondo è troppo vasto, vario e complesso per essere completamente conosciuto e classificato. La mente umana non potrà mai esaurirne la ricchezza, nemmeno con l’aiuto degli algoritmi più avanzati. Questi, infatti, non offrono previsioni garantite del futuro, ma solo approssimazioni statistiche. Non tutto può essere pronosticato, non tutto può essere calcolato; alla fine «la realtà è superiore all’idea» e, per quanto prodigiosa possa essere la nostra capacità di calcolo, ci sarà sempre un residuo inaccessibile che sfugge a qualsiasi tentativo di misurazione.

Inoltre la grande quantità di dati analizzati dalle intelligenze artificiali non è di per sé garanzia di imparzialità. Quando gli algoritmi estrapolano informazioni, corrono sempre il rischio di distorcerle, replicando le ingiustizie e i pregiudizi degli ambienti in cui esse hanno origine. Più diventano veloci e complessi, più è difficile comprendere perché abbiano prodotto un determinato risultato.

Le macchine «intelligenti» possono svolgere i compiti loro assegnati con sempre maggiore efficienza, ma lo scopo e il significato delle loro operazioni continueranno a essere determinati o abilitati da esseri umani in possesso di un proprio universo di valori. Il rischio è che i criteri alla base di certe scelte diventino meno chiari, che la responsabilità decisionale venga nascosta e che i produttori possano sottrarsi all’obbligo di agire per il bene della comunità. In un certo senso ciò è favorito dal sistema tecnocratico, che allea l’economia con la tecnologia e privilegia il criterio dell’efficienza, tendendo a ignorare tutto ciò che non è legato ai suoi interessi immediati.

Questo deve farci riflettere su un aspetto tanto spesso trascurato nella mentalità attuale, tecnocratica ed efficientista, quanto decisivo per lo sviluppo personale e sociale: il «senso del limite». L’essere umano, infatti, mortale per definizione, pensando di travalicare ogni limite in virtù della tecnica, rischia, nell’ossessione di voler controllare tutto, di perdere il controllo su se stesso; nella ricerca di una libertà assoluta, di cadere nella spirale di una dittatura tecnologica. Riconoscere e accettare il proprio limite di creatura è per l’uomo condizione indispensabile per conseguire, o meglio, accogliere in dono la pienezza. Invece nel contesto ideologico di un paradigma tecnocratico, animato da una prometeica presunzione di autosufficienza, le disuguaglianze potrebbero crescere a dismisura, e la conoscenza e la ricchezza accumularsi nelle mani di pochi, con gravi rischi per le società democratiche e la coesistenza pacifica.

 

5. Temi scottanti per l’etica

In futuro l’affidabilità di chi richiede un mutuo, l’idoneità di un individuo a un lavoro, la possibilità di recidiva di un condannato o il diritto a ricevere asilo politico o assistenza sociale potrebbero essere determinati da sistemi di intelligenza artificiale. La mancanza di diversificati livelli di mediazione che questi sistemi introducono è particolarmente esposta a forme di pregiudizio e discriminazione: gli errori sistemici possono facilmente moltiplicarsi, producendo non solo ingiustizie in singoli casi ma anche, per effetto domino, vere e proprie forme di disuguaglianza sociale.

Talvolta, inoltre, le forme di intelligenza artificiale sembrano in grado di influenzare le decisioni degli individui attraverso opzioni predeterminate associate a stimoli e dissuasioni, oppure mediante sistemi di regolazione delle scelte personali basati sull’organizzazione delle informazioni. Queste forme di manipolazione o di controllo sociale richiedono un’attenzione e una supervisione accurate, e implicano una chiara responsabilità legale da parte dei produttori, di chi le impiega e delle autorità governative.

L’affidamento a processi automatici che categorizzano gli individui, ad esempio attraverso l’uso pervasivo della vigilanza o l’adozione di sistemi di credito sociale, potrebbe avere ripercussioni profonde anche sul tessuto civile, stabilendo improprie graduatorie tra i cittadini. E questi processi artificiali di classificazione potrebbero portare anche a conflitti di potere, non riguardando solo destinatari virtuali, ma persone in carne e ossa. Il rispetto fondamentale per la dignità umana postula di rifiutare che l’unicità della persona venga identificata con un insieme di dati. Non si deve permettere agli algoritmi di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato.

In questo contesto non possiamo fare a meno di considerare l’impatto delle nuove tecnologie in ambito lavorativo: mansioni che un tempo erano appannaggio esclusivo della manodopera umana vengono rapidamente assorbite dalle applicazioni industriali dell’intelligenza artificiale. Anche in questo caso c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti. Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari dovrebbero costituire un’alta priorità per la comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro.

 

6. Trasformeremo le spade in vomeri?

In questi giorni, guardando il mondo che ci circonda, non si può sfuggire alle gravi questioni etiche legate al settore degli armamenti. La possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a un approccio ancora più freddo e distaccato all’immensa tragedia della guerra. La ricerca sulle tecnologie emergenti nel settore dei cosiddetti «sistemi d’arma autonomi letali», incluso l’utilizzo bellico dell’intelligenza artificiale, è un grave motivo di preoccupazione etica. I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto «intelligente», rimane pur sempre una macchina. Per questo motivo è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma.

Non possiamo nemmeno ignorare la possibilità che armi sofisticate finiscano nelle mani sbagliate, facilitando, ad esempio, attacchi terroristici o interventi volti a destabilizzare istituzioni di governo legittime. Il mondo, insomma, non ha proprio bisogno che le nuove tecnologie contribuiscano all’iniquo sviluppo del mercato e del commercio delle armi, promuovendo la follia della guerra. Così facendo non solo l’intelligenza, ma il cuore stesso dell’uomo correrà il rischio di diventare sempre più «artificiale». Le più avanzate applicazioni tecniche non vanno impiegate per agevolare la risoluzione violenta dei conflitti, ma per pavimentare le vie della pace.

In un’ottica più positiva, se l’intelligenza artificiale fosse utilizzata per promuovere lo sviluppo umano integrale, potrebbe introdurre importanti innovazioni nell’agricoltura, nell’istruzione e nella cultura, un miglioramento del livello di vita di intere nazioni e popoli, la crescita della fraternità umana e dell’amicizia sociale. In definitiva, il modo in cui la utilizziamo per includere gli ultimi, cioè i fratelli e le sorelle più deboli e bisognosi, è la misura rivelatrice della nostra umanità.

Uno sguardo umano e il desiderio di un futuro migliore per il nostro mondo portano alla necessità di un dialogo interdisciplinare finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica –, in cui siano i valori a orientare i percorsi delle nuove tecnologie. Le questioni etiche dovrebbero essere tenute in considerazione fin dall’inizio della ricerca, così come nelle fasi di sperimentazione, progettazione, produzione, distribuzione e commercializzazione. Questo è l’approccio dell’etica della progettazione, in cui le istituzioni educative e i responsabili del processo decisionale hanno un ruolo essenziale da svolgere.

 

7. Sfide per l’educazione

Lo sviluppo di una tecnologia che rispetti e serva la dignità umana ha chiare implicazioni per le istituzioni educative e per il mondo della cultura. Moltiplicando le possibilità di comunicazione, le tecnologie digitali hanno permesso di incontrarsi in modi nuovi. Tuttavia rimane la necessità di una riflessione continua sul tipo di relazioni a cui ci stanno indirizzando. I giovani stanno crescendo in ambienti culturali pervasi dalla tecnologia e questo non può non mettere in discussione i metodi di insegnamento e formazione.

L’educazione all’uso di forme di intelligenza artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico. È necessario che gli utenti di ogni età, ma soprattutto i giovani, sviluppino una capacità di discernimento nell’uso di dati e contenuti raccolti sul web o prodotti da sistemi di intelligenza artificiale. Le scuole, le università e le società scientifiche sono chiamate ad aiutare gli studenti e i professionisti a fare propri gli aspetti sociali ed etici dello sviluppo e dell’utilizzo della tecnologia.

La formazione all’uso dei nuovi strumenti di comunicazione dovrebbe tenere conto non solo della disinformazione, delle fake news, ma anche dell’inquietante recrudescenza di «paure ancestrali (…) che hanno saputo nascondersi e potenziarsi dietro nuove tecnologie». Purtroppo ancora una volta ci troviamo a dover combattere «la tentazione di fare una cultura dei muri, di alzare muri per impedire l’incontro con altre culture, con altra gente» e lo sviluppo di una coesistenza pacifica e fraterna.

8. Sfide per lo sviluppo del diritto internazionale

La portata globale dell’intelligenza artificiale rende evidente che, accanto alla responsabilità degli stati sovrani di disciplinarne l’uso al proprio interno, le organizzazioni internazionali possono svolgere un ruolo decisivo nel raggiungere accordi multilaterali e nel coordinarne l’applicazione e l’attuazione. A tale proposito esorto la comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme. L’obiettivo della regolamentazione, naturalmente, non dovrebbe essere solo la prevenzione delle cattive pratiche, ma anche l’incoraggiamento delle buone pratiche, stimolando approcci nuovi e creativi e facilitando iniziative personali e collettive.

In definitiva, nella ricerca di modelli normativi che possano fornire una guida etica agli sviluppatori di tecnologie digitali, è indispensabile identificare i valori umani che dovrebbero essere alla base dell’impegno delle società per formulare, adottare e applicare necessari quadri legislativi. Il lavoro di redazione di linee guida etiche per la produzione di forme di intelligenza artificiale non può prescindere dalla considerazione di questioni più profonde riguardanti il significato dell’esistenza umana, la tutela dei diritti umani fondamentali, il perseguimento della giustizia e della pace.

Questo processo di discernimento etico e giuridico può rivelarsi un’occasione preziosa per una riflessione condivisa sul ruolo che la tecnologia dovrebbe avere nella nostra vita individuale e comunitaria e su come il suo utilizzo possa contribuire alla creazione di un mondo più equo e umano. Per questo motivo, nei dibattiti sulla regolamentazione dell’intelligenza artificiale, si dovrebbe tenere conto della voce di tutte le parti interessate, compresi i poveri, gli emarginati e altri che spesso rimangono inascoltati nei processi decisionali globali.

Spero che questa riflessione incoraggi a far sì che i progressi nello sviluppo di forme di intelligenza artificiale servano, in ultima analisi, la causa della fraternità umana e della pace. Non è responsabilità di pochi, ma dell’intera famiglia umana. La pace, infatti, è il frutto di relazioni che riconoscono e accolgono l’altro nella sua inalienabile dignità, e di cooperazione e impegno nella ricerca dello sviluppo integrale di tutte le persone e di tutti i popoli.

La mia preghiera all’inizio del nuovo anno è che il rapido sviluppo di forme di intelligenza artificiale non accresca le troppe disuguaglianze e ingiustizie già presenti nel mondo, ma contribuisca a porre fine a guerre e conflitti, e ad alleviare molte forme di sofferenza che affliggono la famiglia umana. Possano i fedeli cristiani, i credenti di varie religioni e gli uomini e le donne di buona volontà collaborare in armonia per cogliere le opportunità e affrontare le sfide poste dalla rivoluzione digitale, e consegnare alle generazioni future un mondo più solidale, giusto e pacifico.

Dal Vaticano, 8 dicembre 2023

Intelligenza artificiale e pace | Documenti | Il Regno

Documenti, 1/2024, 01/01/2024, pag. 1