Cari colleghi e appassionati di didattica digitale, bentrovati sul blog!
Nelle ultime settimane ci siamo immersi nella costruzione del nostro Laboratorio Virtuale di Scienze, un progetto che sta prendendo forma passo dopo passo. Se avete letto gli articoli precedenti, sapete che non ci siamo accontentati di semplici foto statiche.
Abbiamo iniziato con Thinglink, creando l'ambiente immersivo partendo da foto reali a 360° del nostro laboratorio di scienze, trasformando lo spazio fisico in un hub digitale navigabile. Successivamente, abbiamo fatto un salto nel futuro con Meshy.ai, popolando questo laboratorio con asset e personaggi 3D generati dall'Intelligenza Artificiale, rendendo l'ambiente più ricco e contestualizzato.
Ma guardando il mio laboratorio virtuale, sentivo che mancava ancora qualcosa. Avevamo lo spazio, avevamo i personaggi... ma mancava l'interazione umana, o meglio, la parola.
Oggi vi racconto l'ultimo tassello di questo puzzle didattico: come abbiamo utilizzato Wan.ai (https://wan.video/) per dare voce e movimento ai nostri personaggi statici.
Fino a ieri, il nostro assistente di laboratorio o il prof. virtuale che abbiamo posizionato vicino alla lavagna (entrambi creati con Meshy), erano bellissimi oggetti 3D, ma statici. Per farli "parlare", dovevamo inserire dei tag di testo o dei semplici file audio in Thinglink. Funzionale, certo, ma poco coinvolgente per gli studenti della Generazione Z.
La sfida era: come trasformare un modello 3D statico in un video che parla, partendo solo da un'immagine e un audio?
Qui entra in gioco Wan.ai. Si tratta di uno strumento di AI generativa video estremamente potente (basato sul modello Wan 2.1) che permette di creare video partendo da una singola immagine ("Image-to-Video") o, nel nostro caso specifico, di animare un volto sincronizzandolo con un audio.
Ecco come abbiamo integrato Wan.ai nel flusso di lavoro del Laboratorio Virtuale:
Lo scatto dal "set" virtuale (Meshy): Siamo tornati su Meshy.ai e abbiamo ripreso il modello 3D del prof. Invece di esportare il modello 3D (.glb), abbiamo fatto un semplice screenshot (cattura schermo) del personaggio in primo piano. Questa immagine statica è la nostra base.
La voce (Audio): Ho registrato una breve spiegazione audio (basta il registratore del telefono o un tool online come Vocaroo). Nel mio caso ho utilizzato Audacity (app open-source) poiché l'ho modificata nell'intonazione. Ad esempio, ho registrato: "Benvenuti nel laboratorio! Ricordate di indossare il camice prima di toccare le provette sul tavolo 3."
Tip didattico: Potete far registrare questi audio direttamente agli studenti, facendo interpretare loro personaggi storici!
La magia con Wan.ai: Abbiamo quindi caricato la foto del personaggio e il file audio su Wan.ai. L'intelligenza artificiale ha elaborato i due input e ha generato un video in cui il personaggio muove le labbra, il viso e gesticola in perfetta sincronia con la voce (lip-sync), mantenendo lo stile grafico del modello originale. Tra le limitazione da considerare vi sono la generazione gratuita di video di massimo 15 secondi e la lentezza dell'elaborazione.
Una volta scaricato il video generato da Wan.ai, siamo tornati nel nostro progetto Thinglink. Abbiamo creato un nuovo tag e caricato il video appena creato.
L'effetto wow è garantito: ora, quando gli studenti cliccano sullo scienziato fermo nel laboratorio, questo prende vita in una finestra pop-up e parla direttamente a loro, spiegando la funzione del microscopio posto nel bancone vicino.
L'uso di strumenti come Wan.ai non è solo "estetica", ma ha forti ricadute inclusive e cognitive:
Multimodalità: Forniamo le informazioni sia visivamente che uditivamente, aiutando diversi stili di apprendimento.
Engagement: Un personaggio che parla cattura l'attenzione molto più di un testo scritto.
Storytelling: Possiamo far narrare la scienza dai protagonisti stessi (immaginate Marie Curie che spiega la radioattività con la sua voce).
Il nostro Laboratorio Virtuale di Scienze sta passato dall'essere una bella foto a 360°, a un ambiente 3D, e infine a un ecosistema narrativo vivente. Ma ancora il lavoro non è terminato!
Alla prossima