Una giornata di studio per comprendere come l’IA trasforma la comunicazione e le relazioni nelle nostre comunità
Lecce – Presso l’Istituto Superiore di Scienze Religiose metropolitano “Don Tonino Bello”, a Lecce, venerdì 20 marzo, studiosi e ricercatori hanno argomentato su cosa sia l’Intelligenza Artificiale e come sia possibile utilizzarla, davanti ad una fitta platea di studenti di scienze religiose e ad altri invitati esterni.
Il direttore dell’ISSRM don Tony Bergamo e Chiara Maggiore docente dell’ISSRM di teorie e tecniche della comunicazione, hanno aperto i saluti istituzionali affidati a Gianpasquale Preite (direttore CREV Università del Salento) che ha sottolineato ed auspicato, con le sue 15 unità di ricerca attive, un cambio di paradigma dialogico e al dott. Giuseppe Vinci, Presidente dell’Ordine delle Psicologhe e degli Psicologi di Puglia. Questi ha ribadito “La IA si muove verso nuovi sviluppi e riprogramma ed espande sé stessa, ma l’inquietudine è d’uopo. Dobbiamo essere inquieti. In ambito psicologico la IA pone rischi alti poiché si basa su un trucco, simula una persona; l’intelligenza artificiale è sempre compiacente”.
Sul piano clinico pratico e deontologico il Presidente PSI ha sottolineato che la IA “porterà alla necessità di liberarsi da relazioni ‘fasulle’ nelle quali si sono incagliate le persone “.
Paolo Baldi docente di logica dell’informazione presso Università del Salento per primo tra i relatori ha illustrato come IA e filosofia, abbiano basi possibili comuni sul pensiero di John McCarthy espresso nel 2006. Baldi ha menzionato esempi e rischi della IA in ambito mondiale, emblematico il caso COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) e l’inchiesta di Propublica del 2016, organizzazione giornalistica che analizzò migliaia di punteggi in Florida, riscontrando che l’algoritmo mostrava chiari pregiudizi razziali.
Negli Stati Uniti si utilizzava il software per calcolare rischio di recidiva dei reati nei detenuti con conseguenti condanne e premi da parte dei giudici. L’uso non consapevole dei sistemi IA può tradursi in lesioni dei diritti fondamentali come quelli di riservatezza e protezione dati personali e principio di uguaglianza (art. 3 Cost.), ha ribadito Alessandro Sbarro docente di diritto penale all’Università del Salento. Note le più recenti acquisizioni della Constitutional AI e dell’AI alignment, ossia allineamento ed equità. Il prof. Gian Piero Turchi docente di Psicologia presso l’Università di Padova ha quasi urlato alla platea “Abbiamo sbagliato a chiamarla Intelligenza artificiale, è solo artificiale”, infatti IA e Chatbot come interagenti artificiali, richiedono uno scarto di paradigma conoscitivo, non generano nuove configurazioni di realtà di senso. Gli algoritmi non possono creare. Limite assoluto questo in termini di pensiero e linguistici. E se tutto parte dal linguaggio, dal Logos, come ogni costruzione robotica artificiale, la IA ha serie difficoltà nelle prove di integrazione prassico-motoria, nei test di coordinazione e nelle prove di performances, come ha dimostrato l’Università veneta.
Alla fine la presentazione da parte di Marco Renna del volume “Comunicare (per) la comunità. Percorsi di coesione e narrazione collettiva “edizione Vivere In. Il moderatore assieme a Chiara Maggiore che ha curato il volume, risultato della prima edizione del convegno del precedente progetto, ha modulato pensieri e riflessioni sulla modalità di comunicazione e sulla responsabilità narrativa come competenza di discernimento di comunicazione. Renna chiede di avere chiari obiettivi: se vogliamo una comunicazione dinamica vicina ad un processo di immedesimazione nei fatti e nelle persone o piuttosto con la giusta distanza per poter esprimere con maggiore serenità di giudizio.
