di Maria Cristina Garbui, Federica Pelizzari
La Summer School SIREM 2023 “Analisi dei media: dalla didattica alla ricerca” si è svolta a Roma presso l’Università Pontificia Salesiana (UPS). I lavori si sono aperti il 28 agosto e sono terminati il 30 agosto 2023, seguiti dal Convegno SIREM 2023.
La Summer School SIREM di quest’anno si è proposta di fornire ai partecipanti strumenti di intervento e riflessione sull’uso dei media nei contesti di formazione e di ricerca educativa.
Il framework adottato colloca le attività dell’analisi entro due assi: il primo è quello che distingue didattica e ricerca, ovvero la possibilità di utilizzare gli strumenti dell’analisi a supporto dell’intervento formativo e della ricerca educativa; il secondo asse distingue analisi dei testi e del consumo, secondo una partizione canonica nella pratica mediaeducativa.
Il lavoro ha previsto brevi momenti di affondo concettuale, attività di piccolo gruppo, momenti di restituzione e discussione in plenaria. L’idea è stata quella di fornire ai partecipanti un quadro orientativo sul tema, dei riferimenti metodologici e una piccola toolbox di esperienze e artefatti come risultato del lavoro di gruppo.
Gli interventi della Summer School
Il professor Lev Manovich (City University of New York) ha presentato un contributo dal titolo “GenAI and Cultural Analytics” in cui sono state affrontate alcune questioni: come possiamo vedere un miliardo di immagini? Quali metodi analitici possiamo applicare alla sorprendente scala della cultura digitale: i terabyte di fotografie condivise ogni giorno sui social media, le centinaia di milioni di canzoni create da venti milioni di musicisti su Sound Cloud, il contenuto di quattro miliardi di bacheche Pinterest?
In Cultural Analytics (2023), Lev Manovich presenta concetti e metodi per l’analisi computazionale dei dati culturali, con particolare attenzione ai media visivi. Basandosi su oltre un decennio di ricerche e progetti del suo laboratorio, Manovich – fondatore del campo dell’analisi culturale – offre un’introduzione delicata e non tecnica ad alcuni concetti chiave della scienza dei dati e discute i modi in cui la nostra società utilizza dati e algoritmi.
Manovich offre esempi di analisi culturale computazionale e discute il passaggio da “nuovi media” a “più media”; spiega come trasformare i processi culturali in dati computazionali e introduce concetti per l’esplorazione di insiemi di dati culturali utilizzando la visualizzazione dei dati e altri metodi recentemente sviluppati per l’analisi di insiemi di immagini e video. L’autore considera sia le possibilità che i limiti dei metodi computazionali e come il loro utilizzo metta in discussione le nostre idee attuali sulla cultura e su come studiarla.
Nella Lecture “Verso una scienza della cultura?” di Stefano Moriggi e Pier Cesare Rivoltella sono state registrate interessanti almeno tre interessanti questioni:
- Parliamo di rivoluzione digitale, perché?
- Quale cultura in una società datificata?
- Come analizzare la totalità della cultura affinchè sia intelleggibile?
Ed altrettante piste di lavoro:
- IA e ricerca didattica: costruire la cultura dell’IA è significativo per abitare la professionalità e la cittadinanza
- Data Literacy: occorre sviluppare una data literacy con lo strumento della filosofia per comprendere la realtà nella sua profondità di significati
- Carattere interdisciplinare degli studi: è essenziale una nuova complicità tra le scienze per alimentare sguardi che devono comporsi insieme per concepire la complessità della realtà
L’Introduzione alla Analisi dei Dati di Marta Cimitile è stato un intervento che si è concentrato inizialmente sul framework dell’analisi dati e di cosa l’intelligenza artificiale possa permettere in questo campo. L’analisi dei dati, a livello ingegneristico, è il processo che consiste nel prendere i dati grezzi e applicare una qualche tecnica analitica per trovare modelli significativi nei dati. L’AI e il Machine Learning sono le tecniche di modellazione più recenti che sono state applicate al campo degli analytics.
L’IA è un ampio campo dell’informatica che si riferisce a qualsiasi tipo di intelligenza dimostrata dalle macchine. Spesso questo termine si riferisce a macchine che imitano funzioni cognitive come l’apprendimento, la risoluzione di problemi, il ragionamento e la rappresentazione. L’IA può essere applicata a qualsiasi cosa, dalla comprensione del linguaggio umano, alle auto a guida autonoma, ai giochi e, naturalmente, all’analisi. Diversi approcci alla risoluzione dei problemi con l’IA includono tecniche statistiche, ottimizzazione della ricerca e reti neurali artificiali.
Il Machine Learning è un sottoinsieme dell’intelligenza artificiale che combina algoritmi, modelli statistici e dati per eseguire un compito specifico, senza essere esplicitamente programmato. Una parte fondamentale dell’apprendimento automatico è che invece di fornire istruzioni esplicite su come eseguire un compito, i modelli si basano su modelli e inferenze. In particolare, per eseguirlo è necessario creare un modello che viene addestrato utilizzando dati di addestramento e che poi può essere alimentato con nuovi dati per fare previsioni.
Su questi due modelli è possibile applicare analisi descrittive e inferenziali, ma più di tutto analisi predittive circa fenomeni anche con un’enorme quantità di dati.
L’intervento di Marcella Cornia Introduzione ai modelli generativi basati su Intelligenza Artificiale si è posto come continuum andando a dare un’idea di quanto il modello dell’AI possa essere considerato “generativo”.
Ad alto livello, l’intelligenza artificiale generativa si riferisce a una categoria di modelli e strumenti di intelligenza artificiale progettati per creare nuovi contenuti, come testo, immagini, video, musica o codice. L’intelligenza artificiale generativa utilizza una varietà di tecniche, tra cui reti neurali e algoritmi di deep learning, per identificare modelli e generare nuovi risultati basati su di essi. I sistemi di intelligenza artificiale tradizionali vengono addestrati su grandi quantità di dati per identificare modelli e sono in grado di eseguire compiti specifici che possono aiutare persone e organizzazioni. Ma l’intelligenza artificiale generativa fa un ulteriore passo avanti utilizzando sistemi e modelli complessi per generare output nuovi, o inediti, sotto forma di immagini, testo o audio basati su suggerimenti in linguaggio naturale.
I modelli e le applicazioni di intelligenza artificiale generativa possono, ad esempio, essere utilizzati per: la generazione del testo, immagini, video, codice di programmazione, ecc. …
I modelli di intelligenza artificiale generativa funzionano utilizzando le reti neurali per identificare modelli da grandi insiemi di dati, quindi generare dati o contenuti nuovi e originali. Le reti neurali utilizzano nodi interconnessi che si ispirano ai neuroni del cervello umano. Queste reti costituiscono la base dei modelli di machine learning e deep learning, che utilizzano una struttura complessa di algoritmi per elaborare grandi quantità di dati come testo, codice o immagini. L’addestramento di queste reti neurali comporta la regolazione dei pesi o dei parametri delle connessioni tra neuroni per ridurre al minimo la differenza tra risultati previsti e desiderati, il che consente alla rete di imparare dagli errori e fare previsioni più accurate basate sui dati.
All’intervento sono seguite due proposte operative che hanno coinvolto i partecipanti ad esplorare ChatGPT (limiti e potenzialità) e nel generare nuove immagini tramite descrizioni in linguaggio naturale.
Per approfondire:
- Riferimento al capitolo approfonito nell’intervento di Lev Manovich: https://www.degruyter.com/document/doi/10.1515/9789048531011-006/html
- Link al testo “Cultural Analytics” (2023) di Lev Manovich con l’introduzione di Stefano Moriggi: https://www.raffaellocortina.it/scheda-libro/lev-manovich/cultural-analytics-9788832854978-3891.html