Cerv.I.A

Il progetto Cerv.I.A., finanziato da PR FESR 2021-2027 – Azione 1.2.4 (Azioni di coinvolgimento dei giovani sull’uso consapevole dei social media e dell’intelligenza artificiale), è rivolto ai giovani di Cervia e mira a promuovere un uso consapevole dei social network e dell’Intelligenza Artificiale, sviluppando competenze nell'accesso e nell'utilizzo delle tecnologie digitali.

Attraverso la creazione di contenuti transmediali e una comunità digitale locale, Cerv.I.A. si propone di coinvolgere i giovani con la produzione di un podcast e una app dedicata per facilitarne l’ascolto.

Un altro obiettivo è integrare almeno 10 giovani nei processi creativi della web radio di comunità, offrendo loro un ruolo attivo nella produzione di contenuti.

 

 Scheda sintetica del progetto (55 KB)

I loghi del progetto

4 novembre 2024

Primo incontro del corso di formazione del progetto Cerv.I.A.

Si è tenuto oggi il primo incontro in presenza del corso dedicato ai ragazzi del progetto Cerv.I.A., con la partecipazione del docente Filippo Maria Vincenzi formatore esperto per conto di Demetra Formazione. Gli studenti dell'Istituto Comprensivo Cervia 2 hanno preso parte alla lezione presso l'aula magna della Scuola Media Ressi-Gervasi, dove hanno seguito con interesse e partecipazione.

In totale sono stati 95 i giovani coinvolti in questa prima lezione, che rappresenta l'avvio di un percorso formativo importante per la loro crescita e il loro sviluppo personale.

Di seguito alcune foto dell'incontro.

5 novembre 2024

Anche oggi i ragazzi sono in formazione.

Questa mattina sono impegnate le classi dell'Istituto Comprensivo Cervia 3: 4 terze classi per un totale di 78 studenti.

E' stata anche questa una mattinata particolarmente intensa, piena di contenuti e spunti interessanti che hanno catturato l'attenzione dei ragazzi grazie al formatore Filippo Maria Vincenzi di Demetra Formazione.

11 novembre 2024

Questa mattina le classi che hanno aderito al progetto, hanno partecipato al primo dei due laboratori tentuti dal formatore sui temi proposti da Cerv.I.A.

I ragazzi hanno lavorato sull'Intelligenza artificiale, in particolare sulla creazione di un testo con la IA e riconoscibilità di notizie verosimili.

Il prossimo incontro, previsto pr il 14 novembre tratterà invece temi legati ai Social Network.

14 novembre 2024

Questa mattina si è concluso il percorso laboratoriale, che ha visto le ragazze e i ragazzi delle classi dei due Istituti Comunali, lavorare sulla concretizzazione delle proposte emerse.

Ci sono state come sempre delle riflessioni molto interessanti, che saranno particolarmente utili sia come materiale per i partecipanti, sia per la preparazione dei podcast che verranno trasmessi attraverso Radio Social Coast, la radio di comunità del Comune di Cervia.

In particolare oggi si lavorato sui seguenti temi: Social Network: come funzionano, indicizzazione e tracciamento.

Il prossimo step vedrà invece coinvolti i giovani nel nostro studio professionale, dove svilupperanno e registreranno i podcast, insieme ai volontari e agli operatori della radio.

26 novembre 2024

 

Ecco il gruppo redazione dell'Istituto Comprensivo Cervia 2.

Questo pomerigggio i ragazzi hanno completato le registrazioni dei podcast presso la Radio Social Coast del Comune di Cervia.

Sono o non sono straordinarie e straordinari?

E' stata un'esperienza strepitosa! Emozionante, stimolante e coivolgente, sia per gli operatori che per gli studenti che sono stati bravissimi e hanno partecipato con grande entusiasmo.

Noi però siamo resteremo ancora qui! Ora si procede con l'editing del materiale, che sarà reso disopnibile attraverso Spotify e all'applicazione specifica che il progetto prevede.

Non perdeteci di vista!

 

I testi dei podcast

Episodio 1: cos’è e come funziona l’intelligenza artificiale?

L’intelligenza artificiale è un potenziatore, un acceleratore. Permette a un professionista di accorciare enormemente i tempi di lavoro, ma ha anche moltissimi limiti e più di un difetto.

Ma da dove viene questa tecnologia? Qual è la sua storia?

Si comincia a parlare di intelligenza artificiale moderna con Alan Turing, il celebre matematico che la storia ricorda per aver inventato una macchina in grado di decifrare il codice Enigma, che veniva utilizzato dai nazisti per inviare messaggi durante la guerra.

Ancora oggi, il test che determina se sto interagendo con un essere umano o una macchina si chiama test di Turing. Già ai quei tempi si rifletteva su importanti quesiti: può una macchina sviluppare una sua coscienza? Sarà sempre possibile distinguere un cervello pensante da una macchina molto efficiente?

Le macchine non possono certo provare emozioni, ma negli ultimi anni hanno fatto passi da gigante grazie alle più moderne intelligenze artificiali.

Ma come funzionano?

L’ia tradizionale nasce e si sviluppa come un sistema continuo di opzioni.

Come comunica una macchina? Può comprendere il codice binario. Non esistono sfumature, ma solo il binomio vero/falso. Presenza o assenza. Uno o zero.

Quando l’intelligenza artificiale tradizionale non sa rispondere alla domanda che le viene posta, il tecnico umano interviene fornendo una risposta appropriata.

Questa intelligenza artificiale funziona a opzioni. Scorre il suo database finché non trova una combinazione di informazioni che può rispondere in modo soddisfacente al quesito che le è stato posto. Può anche lanciare i dadi e selezionare una tra una serie di risposte corrette per lo stesso quesito. Apprende da esperienze passate e migliora nel tempo grazie agli errori: impara in termini guidati grazie al machine learning e memorizza i risultati grazie al feedback degli utenti.

Ad un’azione corrisponde una reazione, e nel tempo si affina la precisione dello strumento nell’individuare certi pattern di corrispondenze.

La più recente intelligenza artificiale generativa, invece, applica la probabilità alle domande che le vengono poste. È in grado di utilizzare i dati a cui ha accesso per creare risposte che statisticamente possono avere senso ed attribuire a esse una parvenza di verosimiglianza. Fa questo senza ricorrere all’intervento di un essere umano, e può quindi generare contenuti in autonomia.

Purtroppo può commettere errori, e a volte ha bisogno di essere messa, in un certo senso, sotto pressione per fornire risposte sufficientemente approfondite. L’intelligenza artificiale generativa può addirittura creare menzogne o storie completamente inventate partendo dalle informazioni a sua disposizione, perché può presentarle in modo che sembrino credibili agli occhi di qualcuno che non è un esperto dell’argomento trattato all’interno della sua risposta.

Questo significa che l’intelligenza artificiale è uno strumento molto potente, ma non infallibile. Nella prossima puntata scopriremo come e da chi viene utilizzata.

 

Episodio 2: Chi lavora con l’intelligenza artificiale? E perché?

Studenti e giovani, al contrario di quanto molti sembrano credere, in genere non sono i clienti primari dell’I.A. Certo, questo strumento può aiutare chi si trova a dover finire in fretta un compito su cui si era dimenticato di lavorare, ma l’I.A. non serve soltanto a chi si riduce a scrivere un tema su Napoleone il giorno prima della consegna.

Il grande vantaggio dell’intelligenza artificiale tradizionale è la precisione. Questo vuol dire che questa tecnologia è applicabile in campi in cui serve analizzare dati per comprendere e prevedere dei trend, come per esempio la finanza, o ripetere ciclicamente pattern sempre uguali, ovvero la medicina. Chi potrebbe misurare la quantità di medicinale da inserire in una compressa con maggior precisione rispetto a una macchina?

Le cose cambiano quando si comincia a parlare di intelligenza artificiale generativa. Ci sono artisti che ricorrono ad essa per velocizzare certe fasi del processo creativo o trovare l’ispirazione giusta per un progetto.

Anche i giornalisti sono incentivati a utilizzarla, perché hanno poco tempo per creare una quantità di articoli sufficiente ad assicurare loro il compenso di cui necessitano. Il tempo materiale per frequentare tutti gli eventi interessanti in zona non c’è, ma è essenziale poter produrre un testo anche quando si hanno in mano poche essenziali informazioni.

Le grandi aziende utilizzano l’I.A. tradizionale principalmente per massimizzare i profitti e ottimizzare i tempi di lavoro, ma l’applicazione di questa tecnologia può fare emergere problemi spinosi.

Recentemente il colosso Amazon è stato investito da un enorme scandalo che riguardava presunte inclinazioni sessiste dell’intelligenza artificiale che era stata utilizzata per preselezionare i curriculum degli aspiranti lavoratori più interessanti.

Ad un certo punto qualcuno si è accorto che tutte le candidate di sesso femminile erano state scartate durante il processo di selezione. Ma perché? La macchina non sapeva cosa fossero gli uomini e le donne, e nessuno le aveva insegnato a discriminare in base al sesso. Uno dei criteri che doveva considerare per selezionare i candidati era la capacità di lavorare in gruppo, e siccome gli uomini erano più propensi a inserire gli sport di squadra come il calcio tra gli hobby il meccanismo aveva individuato nelle figure maschili i candidati statisticamente più desiderabili per l’azienda.

Ovviamente, questa intelligenza artificiale è stata immediatamente buttata nel cestino perché ormai era impossibile insegnarle a dimenticare questa preferenza.

Le nuove tecnologie portano sempre con loro nuovi dilemmi etici, e hanno bisogno di essere monitorate da esseri umani in carne e ossa. Nella prossima puntata scopriremo quale tipo di dilemmi etici possono emergere a causa dell’utilizzo delle intelligenze artificiali.

 

Episodio 3: L’etica dell’intelligenza artificiale

É corretto ricorrere all’intelligenza artificiale per produrre temi o finire i compiti più velocemente? L’I.A. può sostituire le competenze di un essere umano e lavorare in totale autonomia? Come si fa a utilizzare questo strumento in modo consapevole e responsabile?

Ora che abbiamo una tecnologia così veloce e potente a portata di mano è più importante che mai comprendere che essa ci assiste nel nostro lavoro, senza però rimpiazzarci.

Avere accesso a una quantità di informazioni inimmaginabile con un solo click ha trasformato la nostra società: se prima dei computer il mondo dei professionisti e degli intellettuali era di tipo mnemonico, oggi è invece di tipo analitico.

In parole povere: non è più necessario saper memorizzare enormi quantità di dati, perché le macchine possono eseguire questo compito alla perfezione. È però essenziale essere in grado di analizzare questi dati per studiarli, comprenderli e selezionarli.

Pensare che il materiale prodotto con l’aiuto di un’intelligenza artificiale non debba essere revisionato o rimaneggiato è un errore fatale, e sarebbe altrettanto sbagliato lasciare un’I.A. libera di creare pattern e associazioni in totale libertà per evitare di perdere tempo a istruirla con parametri stabiliti da noi.

Google, per esempio, qualche anno fa ha dovuto fare i conti con una marea di proteste e commenti indignati a causa di un increscioso incidente. La sua funzione di etichettatura automatica delle immagini, in assenza di una supervisione da parte di tecnici umani, aveva infatti imparato ad associare le immagini di persone afroamericane a insulti razzisti.

Aveva interpretato le più violente offese come semplici descrizioni oggettive delle immagini sotto le quali apparivano, e l’enorme frequenza con cui queste ingiurie venivano ripetute nei commenti alle foto in questione aveva insegnato all’intelligenza artificiale a creare una connessione che è stata poi eliminata manualmente.

Un’intelligenza artificiale non è certo in grado di discriminare tra un commento sarcastico e uno onesto, e lasciare che scandagli il web per imparare da sola a descrivere il mondo significa darle in pasto il peggio del peggio, senza filtri. Senza nessuno a stabilire parametri o selezionare fonti autorevoli, un’intelligenza artificiale può tranquillamente nutrire i propri database con fake news, complotti, ideologie misogine e xenofobe, generando contenuti a dir poco mostruosi.

Non possiamo dimenticare che l’intelligenza artificiale non è come quella umana, e non essendo guidata da principi morali non possiede alcuna concezione che possa avvicinarsi al nostro senso etico.

Che succederebbe se, per portare avanti una guerra, affidassimo a un’intelligenza artificiale il compito di bersagliare il nemico nel modo più efficiente possibile? Se un soldato individuasse dei terroristi armati nascosti in mezzo a un gruppo di bambini, probabilmente non sparerebbe per evitare di uccidere dei civili innocenti. Una macchina ragionerebbe allo stesso modo? Oppure si preoccuperebbe solamente di eliminare il bersaglio?

L’I.A., nonostante le meraviglie di cui è capace, rimane sempre uno strumento. Spetta a noi decidere come utilizzarla.

 

Episodio 4: Cos’è un social network?

Tutti quanti accediamo quotidianamente a Instagram, TikTok, Facebook e WhatsApp. Li utilizziamo per condividere contenuti, rimanere aggiornati sugli ultimi trend oppure comunicare con gli amici.

Quelli che noi chiamiamo “social network” sono però in realtà “social network services”, ovvero servizi per le reti sociali. Le reti sociali vere e proprie sono i gruppi, le comunità di persone con cui rimaniamo in contatto e stringiamo rapporti.

Diciamo che inizia tutto il 1 agosto 2003, quando nasce MySpace. Questo social network comincia a dare al pubblico la possibilità di creare un profilo personale e chattare con altre persone.

La vera novità, però, arriva con Facebook, che porta con sé una geniale intuizione: l’elemento della curiosità per le vite, le relazioni e le occupazioni altrui. Nasce infatti in un’università americana con lo scopo di permettere agli studenti di capire come trovare i ragazzi e le ragazze di cui sono invaghiti scoprendo che corsi frequentano. Gli ideatori non fecero altro che portare online informazioni che erano già pubbliche, rendendole molto più accessibili.

È uno degli ultimi grandi progetti a nascere dal basso, in modo indipendente, dal bisogno di persone vere mosse dal desiderio di mettersi in contatto con amici e conoscenti.

Instagram cambia tutto, introducendo un elemento che ha completamente rivoluzionato il mondo dei social media. Kevin Systrom capisce che è possibile applicare lo studio della psicologia allo sviluppo di una piattaforma di successo: comprendere quali stimoli generano soddisfazione consente di manipolare l’attenzione degli utenti, generando il desiderio di restare su Instagram il più a lungo possibile.

Questo meccanismo ha un nome: “gamification”. Consiste nell’applicare tecniche ludiche in contesti non ludici, ed è la chiave di svolta che ha cambiato per sempre il mondo di internet.

Ora i social network vengono creati dalle grandi aziende, che studiano i trend e progettano piattaforme in grado di intercettare il grande pubblico.

Siamo passati dal “function focus design” allo “human focus design”.

I social hanno adottato questa strategia per massimizzare i profitti, e i fondatori di queste piattaforme sono oggi immensamente ricchi. Una cosa che occorre tenere presente è che la popolarità ha un costo: più utenti significa più lavoro, più spazio su server, più spese per il social, mentre noi lo utilizziamo senza spendere un centesimo.

Ma allora come fanno questi colossi a guadagnare? La risposta è molto semplice: dati. Le informazioni riguardanti le nostre preferenze, passioni e abitudini sono incredibilmente utili per le aziende, che pagano profumatamente Instagram, TikTok e WhatsApp per ottenerle e capire così come venderci il loro prodotti.

Ci capita a volte di considerarci dei tecnici perché sappiamo come utilizzare queste piattaforme, ma la realtà è che siamo sempre solo clienti. Armati di questa consapevolezza possiamo fare qualche cosa di più per proteggere la nostra privacy.

 

Episodio 5: Profilazione

Nello scorso episodio abbiamo introdotto l’argomento privacy e spiegato quanto è fondamentale la vendita dei nostri dati per le entrate dei social network services.

Approfondiamo un po’ la questione: ognuno di noi, ogni volta che scorre la homepage di un qualunque social che frequenta, si trova davanti a video, immagini e post che incontrano le sue preferenze, e questo non è certo un avvenimento casuale, ma un risultato della cosiddetta profilazione.

Gli algoritmi si occupano di proporci contenuti di nostro interesse, registrando una marea di dati per analizzare il modo in cui interagiamo con il materiale che si trova online. Quanti secondi ho passato a guardare questo video sul basket? L’ho guardato una seconda volta? Le foto di gattini mi spingono a cliccare mi piace oppure mi annoiano, inducendomi a mettere via il telefono? Che ore sono quando mi fermo a interagire con video comici?

Con il termine profilazione si intende quindi il rastrellamento automatizzato dei dati relativi ai nostri comportamenti in quanto user allo scopo di codificarci nel modo più accurato possibile. Gli algoritmi di clustering segmentano gli utenti in gruppi omogenei partendo da volumi enormi di dati, dalla cui analisi emergono varie categorie con comportamenti e interessi in comune.

Registrare tutto questo serve all’algoritmo per capire come incrementare il nostro tempo di permanenza sulla piattaforma e, soprattutto, come inquadrarci come possibili acquirenti. Una volta che Tiktok, Instagram e YouTube individuano le nostre aree di interesse possono sottoporre alla nostra attenzione degli annunci pubblicitari targetizzati.

La profilazione, comunque, fa riferimento al device in uso e non alla persona fisica. Questo significa che ad essere etichettati non siamo noi in quanto persone, ma il numero di telefono associato alle abitudini di consumo che l’algoritmo ha individuato.

Questo strumento viene applicato anche in altri campi, per esempio quello della sicurezza. Si stanno investendo molte risorse nella ricerca di schemi di comportamento ricorrenti che possano predire con successo quali individui hanno la più alta probabilità di essere terroristi, così da intercettare gli ideatori di un attentato prima che possano agire.

A noi, però, interessa comprendere il funzionamento di questi algoritmi per utilizzare i social in modo più consapevole. Questo strumento ha infatti degli aspetti negativi: se da un lato ci permette di personalizzare la nostra esperienza online, dall’altro esso rischia anche di chiuderci in una bolla di contenuti uniformi, nascondendo alla nostra vista materiale che vorremmo visionare, ma che è stato scartato perché non inserito in un trend sufficientemente popolare.

In un mondo in cui la visibilità di un contenuto è determinata dalla sua viralità, è necessario poter sfruttare le nostre conoscenze per cercare autonomamente contenuti e prodotti, senza lasciare che lo schema dell’algoritmo ci intrappoli e ci proponga solo quello che viene guardato da altri milioni di utenti.

Dobbiamo, in un certo senso, “forzare il sistema” per evitare che la nostra esperienza sia totalmente passiva.

Nel prossimo episodio, quello conclusivo, continueremo a parlare di uso critico delle piattaforme social, spiegando come riconoscere potenziali fake news.

 

Episodio 6: Fake news e post verità

Cosa sono le fake news? Beh, rispondere è piuttosto facile. Lo dice il termine stesso: fake news significa infatti notizie false. Se ne sente parlare in continuazione, specie quando su internet si dibatte su politica e di altri argomenti scottanti.

Ma questo non significa che le fake news siano nate grazie a internet. Al contrario, le menzogne esistono dall’alba dei tempi, praticamente da quando l’essere umano ha cominciato a comunicare.

Il motivo per cui nell’era digitale si discute così tanto intorno all’argomento è che internet e le nuove tecnologie hanno reso straordinariamente facile mettere in circolo notizie fasulle.

Basta un semplice prompt per generare righe e righe di contenuti completamente falsi con l’ausilio di un’intelligenza artificiale. Ehi, ChatGPT! Mi crei un articolo sui crimini nascosti del personaggio politico che odio di più? Ecco che davanti ai miei occhi appare un testo che descrive con dovizia di particolari una sordida storia di corruzione e collusione con la mafia grazie a spunti inventati da me. Ora non mi resta che pubblicare l’articolo sui social, perché posso contare sul fatto che chi è già d’accordo con me e detesta la persona che ho preso di mira condividerà senz’altro lo scoop.

Facile no? Questo tipo di pratica può generare scandali, screditare certe persone agli occhi del grande pubblico e influenzare così anche eventi importanti, come per esempio i referendum e le elezioni.

Il guaio è che tutti possono cadere in questa trappola. L’algoritmo ha certamente capito quali sono le opinioni che preferiamo, e tenderà a polarizzarci sempre di più proponendoci contenuti con cui sicuramente saremo d’accordo e limitando la nostra esposizione ad argomentazioni diverse.

Io ho ragione, la mia fazione è nel giusto, gli altri sono stupidi, malvagi o ignoranti. Il dialogo sparisce. Le emozioni finiscono per guidare il nostro pensiero a discapito della logica.

E non ci sono solo le fake news a inquinare le discussioni, perché dobbiamo stare attenti anche alle situazioni in cui i dati veri vengono manipolati e presentati per favorire un determinato punto di vista. In questo caso parliamo di post verità, ovvero di notizie che riportano il vero, ma omettono dati salienti o creano correlazioni con il preciso scopo di convincere il lettore a credere a conclusioni che poco hanno a che fare con la verità.

Per esempio: mettiamo che quest’anno siano aumentate sia le vendite di videogiochi che i feriti da arma da fuoco. Se volessi, potrei scrivere che le due cose sono certamente correlate, e inventarmi che la colpa della violenza è tutta dei videogiochi. A questo punto la realtà è irrilevante, perché è solo lo strumento che manipolo al fine di supportare una teoria infondata.

Come fare per difendersi da tutto questo? La risposta è, ancora una volta, con la conoscenza. Verificare. Studiare. Controllare le fonti. Capire se stiamo ragionando con la pancia o con il cervello.

Le nostre capacità critiche saranno sempre e comunque i nostri scudi più efficaci contro la disinformazione.

Fuori l'APP!

Ci siamo!

A partire da oggi potete scaricare gratuitamente l'APP per ascoltare Radio Social Coast e i podcast del progetto CervI.A., registrati dagli studenti dell'IC2 ed IC3 di Cervia.

CervI.A. è il progetto finanziato dalla Regione Emilia-Romagna dedicato all'Intelligenza Artificiale ed all'uso consapevole dei social network.

Per ascoltarlo, scarica dallo store l'APP di Radio Social Coast all'indirizzo https://play.google.com/store/apps/details?id=it.radiosocialcoast.app e cerca la voce CervI.A.

Con un semplice click puoi ascoltare tutti i nostri podcast, che toccano svariati temi: storie di grandi passioni ed eccellenze, notizie sportive in continuo aggiornamento, esperti e accademici a tua disposizione, novità su romanzi e spettacoli, ricette e nuove idee per la cucina, riflessioni filosofiche e politiche, guide per il benessere fisico e psicologico, approfondimenti sulla storia del territorio, e tanto tanto altro!

Il sistema personalizzabile ti permette di scegliere se e quando ricevere una notifica attraverso l’APP, ad esempio se per l’inizio delle dirette su Twitch, oppure per le uscite di nuovi podcast, o per l’annuncio di novità ed eventi.

Radio Social Coast è un progetto del Comune di Cervia e di Scambiamenti Spazio Culturale, che permette una partecipazione aperta dei cittadini cervesi e non solo, gestita da speaker volontari e giovani under 35 che si mettono in gioco per la comunità. La partecipazione ai programmi e la creazione di podcast è aperta a tutti, anche a persone che non risiedono a Cervia ma che hanno qualcosa di interessante da portare ai nostri microfoni e a un pubblico che si estende al di là dei confini della Romagna. Per proporre la tua partecipazione alla redazione di RSC invia una mail a radiosocialcoast@gmail.com oppure contatta Scambiamenti al 338 2196514 (numero attivo dal Lunedì al Venerdì dalle 14.00 alle 18.00) – anche su Whatsapp.

Utilizzando il nostro sito, accetti il nostro uso dei cookie, per una tua migliore esperienza di navigazione. Leggi tutto...