A proposito di captcha e intelligenza artificiale generativa
Uno dei paradossi di questi strani tempi è che trascorriamo molto tempo a rispondere a dei CAPTCHA per provare a dei bot artificiali che noi siamo esseri umani e non bot artificiali. E più i bot diventano bravi a sembrare umani, più i CAPTCHA si fanno complicati anche per noi umani che siamo costretti a trascrivere sequenze di lettere illeggibili prive di senso o a individuare semafori o biciclette o strisce pedonali in foto sfocate, minuscole e mal esposte.
Finisce che chiederemo all’intelligenza artificiale di darci una mano per fare capire a un’intelligenza artificiale che siamo umani. Pure troppo umani.
…
Video illustrativo
Il video mescola immagini originali generate dall’AI con immagine da me medesimo umanamente generate. La musica è stata creata con MusicFX.
Versione cantata in modo artificialmente intelligente della mia Rap/sodia del Primo Maggio, un brano che riciclo da vari anni per fare i miei auguri a tutti coloro che il lavoro lo creano, lo fanno o lo cercano.
Aggiungo le miei maledizioni per quelli che il lavoro lo distruggono, lo disprezzano o lo sfruttano e dedico le mie parole a chi di lavoro, pure quest’anno, è crepato.
La canzone l’ho realizzata con Udio, un app musicale di intelligenza artificiale di cui ho già parlato qui.
Chi cicala e chi formica È una storia antica Uno mangia e l’altro fatica
La cicala e la formica La cicala e la formica
Io invece sogno un primo maggio intelligente No di chi fa tanto e di chi non fa niente e ci guadagna pure tanto sulla schiena sulle spalle e sulle palle della povera gente
Dignità e Rispetto Lavorare per vivere e non vivere per lavorare Dignità Rispetto e Sicurezza Lavorare per vivere e non morire per lavorare
Chi cicala e chi formica È una storia antica Uno mangia e l’altro fatica
La cicala e la formica La cicala e la formica
Rispetto Sicuro Sicurezza e Giustizia Distribuire i pesi e tutti equamente ricompensare
Lavorare bene e nessuno il lavoro d’altri sfruttare
E che nessuno debba più malvivere o morire di lavoro di non lavoro o di lavorare
Nota tecnica
Contrariamente a quanto ho scritto nel post dello scorso 28 aprile, mi sono reso conto ora che si possono prolungare i brani per più di 30 secondi con l’opzione “extend version“. Inoltre, ho visto come aggiungere <bridge>, <chorus>, <drop> e parti strumentali ai brani. L’applicazione mi sembra molto efficace, ma immagino che tra i programmi a pagamento ci sia di meglio. Per chi di musica campa, potrebbe essere un problema; anche se credo che ancora niente e nessuno possa sostituirsi all’emozione di qualcuno o qualcuna che suona e canta davanti a te dal vivo dei brani composti e scritti da altri esseri umani. La presenza fisica di un artista crea un’atmosfera che non può essere replicata digitalmente. Un interprete in carne e anima crea una connessione col suo pubblico e può prendere decisioni spontanee e cambiare il corso di una performance in base al feedback del pubblico che gli sta di fronte. Ogni performance dal vivo è e restarà unica e irreplicabile; spero. E spero che non perderemo mai lo stupore e l’emozione di ascoltare qualcuno suonare e cantare brani creati dalla competenza, dall’intelligenza e dall’emotività umana. Intanto, mi aspetto di vederne ancora tante. Tipo brani scritti dall’IA e interpretati da musicisti veri con micro-variazioni umane e poi ripresi dall’IA, riaggiustati tenendo conto delle variazioni e poi ridati a musicisti veri perché tornino a interpretarli e riconsegnarli all’IA in un continuum che può andare avanti all’infinito (o fino all’umano sfinimento). Io, da parte mia, l’IA non la temo più di tanto, e neanche la rinnego, ma credo che vada usata solo come supporto all’agire e al creare umano. Almeno per il momento…
Appendice del 4 maggio (nuova versione)
Un paio di giorni dopo la pubblicazione di questo brano di AI+TAN (dove AI sta per Artificialintelligence), il compositore Filippo Minoia a.k.a. Gomena ha scritto e suonato in fretta e furia anti-digitale una nuova musica per accompagnare il mio testo e dimostrare che la mente, il cuore e la mano umana sanno fare di meglio dell’intelligenza artificiale generativa. Potete ascoltarlo qua e dirmi se siete d’accordo con lui e con me che questa è la versione migliore de La cicala e la formica.
Considerazione sulla pseudopoesia altrui e su quella mia in versione scritta e in versione operistica cantata da tenori e soprani artificiali di Casa Udio
Vi propongo la lettura e, soprattutto, l’ascolto di una serie di versi che ho scritto qualche giorno fa e che ho trasformato in un brano in stile operistico sfruttando l’intelligenza artificiale generativa di Udio, un recentissimo modello di IA rilasciato in versione beta lo scorso 10 aprile. Da quanto ho capito, in questa release gratuita non si possono creare brani più lunghi di una trentina di secondi. Pertanto, gli ho fatto generare una ventina di frammenti audio, poi ne ho scelti 7 o 8 e li ho remixati un po’ in fretta per l’urgenza di mettere il brano in rete e farvelo sentire appena sfornato. Il risultato, secondo me, è sorprendente, considerato anche che, partendo da un testo preesistente, non ci ho messo più di un’oretta per arrivare al prodotto finale. Come per i due frammenti sonori creati ieri con MusicFX, c’è voluto molto più tempo per creare il video che per arrivare alla concezione, alla generazione e al remix dei brani.
La cosa bella è che la musica e l’atmosfera che è venuta fuori dalla concertazione degli strumenti e delle voci è del tutto coerente con il testo che avevo dato in pasto all’intelligenza artificiale: una riflessione sghemba e autoironica sulla poesia, nata, nella sua prima versione, come un commento a un post del mio amico Maurizio Lioniello, il quale, a sua volta, aveva scritto dei versi che prendevano in giro un poetastro e le sue sforzate rime. Poi, scrivendo scrivendo, la mia composizione si è trasformata motu propio in un dileggio verso tutti quelli che si sforzano di scrivere testi con insistiti a capo, incluso chi in questo momento sta scrivendo questo testo senza soluzione di continuità. La stessa persona che in quel momento là scrisse quella sequela di parole andando sovente a capo prima della conclusione del rigo. Un abuso che si dovrebbe concedere solo ai poeti veri, quelli fatti, rifatti, strafatti e seri.
Va be’, non aggiungo altro e vi invito all’ascolto attraverso questo video che dura 3 minuti e una trentina di secondi. Secondo me, vale la pena ascoltarlo tutto, anche se temo che risulterà pesante per chi non è abituato a sentire brani di musica lirica e oltraggioso per i melomani duri e puri. Resta uno sparito numero di abitanti di una terra di mezzo che potrebbe pure arrivare fino al meraviglioso 3:27 finale.
Di seguito, il testo che ho fatto cantare ai cantanti lirici artificiali di Casa Udio.
(Lui) Pensa che sia giusto e che sia figo Romper la continuità del rigo e Poetando d’ambascia e d’angoscia Non si dà conto che ad ogni rima La paposcia si ammoscia più di prima
Mentr’a mme tanto la stima s’affloscia Che mi discende giù giù lungo la coscia Pronta a scoppiare come ad Hiroshima
Ragion per cui la quale rinnego quanto scritto prima E disbrigo quest’intrigo, caro amigo, Cambiando metro, modo, tono e stile per interrompere quest’altra inutile rottura del silenzio che potevate anche fare a meno di sentire (Voi)
E io di scrivere
Per favore, siate così gentili da farmi sapere che ne pensate sia del testo (naturale) che della musica (artificiale, stando alle definizioni attualmente in voga). Ma cercate di non farvi influenzare troppo dai vostri pregiudizi e dalle vostre ansie, ambascie e preoccupazioni collegate alla proliferazione di questi strumenti di cosiddetta intelligenza artificiale che io sto provando a esplorare dal di dentro per capire l’effetto che fa.
Poi, se proprio non riuscite ad ascoltare un brano similoperistico, provate con questo altro esperimento che ho realizzato con lo stesso metodo di rimixaggio di frammenti creati con l’intelligenza artificiale generativa di Udio.
È una canzoncina per l’estate in stile pop downtempo. Il testo l’ho preso da una poesiola eco-marinara che ho scritto un paio di anni fa, quando ancora non c’era tutto questa diffusione e questo discettare di intelligenze artificiali, naturali o pseudotali.
Va be’, mo basta. Mi fermo qui, ma ho già un sacco di altro materiale, anche in napoletano, tutto prodotto in un solo giorno (ho scoperto che se dai in pasto a Udio un testo in dialetto, lui in dialetto canta, sfoggiando una pronuncia partenopea più plausibile di quella di Mario Del Monaco, Claudio Villa, Pavarotti, Gabriella Ferri e Arbore Renzo).
In fondo, la caratteristica precipua di questa IA è la fretta.
Un paio di app in versione beta che sfruttano le potenzialità dell’AI per generare immagini, musiche e giochi di parole
Stamattina ho fatto una visita ad AI Test Kitchen, un sito web in cui è possibile sperimentare e fornire feedback su alcune delle più recenti produzioni tecnologiche nell’ambito dell’intelligenza artificiale generativa di casa Google.
Ecco cosa ho trovato nelle cucine di aitestkitchen.withgoogle.com (specifico che, come si vede dall’URL, kitchen/cucina è proprio il termine che quei buontemponi di Google hanno dato a questo spazio in cui si preparano e sperimentano nuovi piatti prima di presentarli al grande pubblico):
1. ImageFX Un programma text-to-image per creare immagini a partire da un prompt testuale. Niente di che, in verità, salvo il fatto che, per alcune delle parole chiave scritte nel prompt, vengono offerti dei menù a tendina che contengono dei termini alternativi che aiutano a produrre in modo agevole altre immagini collegate alla nostra ricerca. Indubbiamente, c’è di meglio in giro, ma vi consiglio di tenerlo d’occhio, perché immagino che in questo retrobottega le cose evolvano a velocità esponenziale.
2. TextFX Un’applicazione per giocare con le parole (purtroppo solo in inglese) che permette di creare acronimi, acrostici, palindromi, similitudini catene di parole e tant’altro. Mi è piaciuta molto, anche perché ho provato spesso a fare giochi simili con ChatGPT, Copilot e Mistral con risultati piuttosto scadenti. Questa macchina cerca-parole, invece, pare funzionare bene; almeno nella lingua di Albione. Se avessi più tempo, ci perderei allegramente delle ore.
Questi, per esempio, sono gli acronimi creati da TextFX a partire dalle lettere che compongono il mio cognome e il mio nome:
VERGARA – Very Energetic, Radiant, and Graceful, Always Ready to Achieve GAETANO – Greatly Admired, Energetic, Talented, Always Nurturing Others
L’acrostico del mio nome di battesimo lo trovo molto simpatico (e, in fondo, è la vera e malcelata ragione per cui ho fatto questo post). In lingua nazionale dice più o meno, ehm, ehm: “Grandemente Ammirato, Energico, Talentuoso A Nutrire Ognunaltro“. (E lo so che Ognun altro non si scrive tuttattaccato, ma mi serviva per non spezzettare l’acrostico nella versione italiana, visto che in inglese era venuto tutto compatto e senza sbavature). Proverò a mandarlo a memoria come un mantra da ripetermi nei giorni in cui l’autostima mi scivolerà tra le unghia delle dita dei piedi e i calzini.
Ah, dimenticavo, esiste anche una versione di TextFX meno ricca, ma più stabile, all’indirizzo: https://textfx.withgoogle.com/.
P.s. C’è anche un MusicFX che al momento non sembra essere disponibile per gli utenti italiani. Io, comunque, l’ho provato in VPN e, dapprincipio, non mi è parso granché. Generava composizioni piatte, banali e con suoni artificiali, tipo midi di prima generazione. Poi, però, dopo molti tentativi e un prompt piuttosto circostanziato che ho ripetuto due volte, sono venuti fuori un paio di frammenti di una trentina di secondi che ho ritenuto degni di essere salvati e riproposti qui.
Avevo chiesto a MusicFX di comporre della: Insanely slow music with cello and clarinet. Sounds that create a sad and melancholic atmosphere. The last five seconds are in diminuendo.
Il diminuendo (nonostante vari tentativi) non è riuscito e ho operato io un fade out in postproduzione; il resto, però, è stato all’altezza delle mie aspettative. E così spero per voi.
Mi sto (pre)occupando di intelligenza artificiale generativa fin dalla diffusione internazionale di ChatGPT, nell’inverno postcovid del 2022. E già prima d’allora avevo letto qualche saggio specialistico sull’argomento. Da dicembre di quell’anno ne ho scritto spesso anche tra le pagine di questo blog. Come hanno fatto in tanti in tanti altri siti, facendo rimbalzare dati, idee e concetti dalle loro menti alle chat naturali e artificiali che imperversano per la rete e tra i rari giornali di carta ancora in circolazione.
…
E ancora continuo a leggere libri e articoli sull’argomento e a sperimentare usi e abusi dell’IA in diversi campi del sapere, del fare e del saper fare. Una cosa che mi intriga, mi interessa, mi diverte e mi preoccupa.
In questi giorni, sto tenendo anche un corso per i colleghi sui rischi e le opportunità dell’IA tra i banchi e nel lavoro scolastico domestico. Ed è proprio nell’ambito di questo corso che ho presentato questa clip realizzata aggiornando e manipolando un video (piuttosto famoso) dello scorso decennio, che mostrava come lentamente e inesorabilmente tutti gli oggetti che prima affollavano le nostre scrivanie si sono trasferiti nei nostri apparecchi digitali. L’ho fatto per chiedermi cosa ne sarà delle nostre teste e delle nostre coscienze nell’epoca dell’intelligenza artificiale generativa, paventando un rischio che potremmo correre se non impareremo a usare questo nuovo strumento con senso critico e attrezzati di adeguate competenze, conoscenze e capacità di analisi.
Guardatelo e fatemi sapere…
…
Insomma, sono in una posizione problematica di fronte a questa grande rivoluzione tecnologica che ci fa parlare con le macchine usando un linguaggio piuttosto naturale, che, da parte nostra, non comporta alcuno studio o difficoltà. Come se chattassimo con un alieno che ha imparato a conversare in italiano (e in inglese, francese, spagnolo, tedesco, giapponese, cinese, portoghese, coreano, arabo, russo, croato…). Noi facciamo un po’ finta di non saperlo che lui viene da un altro pianeta e da un’altra dimensione e lui fa di tutto per venirci incontro e compiacerci, anche se in realtà non sa niente della nostra cultura e delle nostre radici. Come uno Zelig è abilissimo a simulare di sapere e a immedesimarsi nei ruoli che via via gli affidiamo, ma qualche volta prende fischi per fiaschi, scivola su qualche buccia di banana e racconta strane allucinazioni come se fossero la verità dei fatti.
Per il resto, sono preoccupato anche per il grande impiego di risorse necessarie per tenere in moto questa macchina estremamente energivora e fagocitante. E a quanto ci dicono siamo ancora solo alla fase ANI (artificial narrow intelligence: un’intelligenza artificiale limitata). Figuriamoci se e quando passeremo dall’AGI (artificial general intelligence: un’IA generale e diffusa, in grado di fare ogni cosa a livello umano) all’ASI (artificial super intelligence: una super IA, in grado di fare tante cose e tanti fatti meglio di te, di me e di noi tutti messi insieme). D’altronde è già dal 1997 – lo scorso millennio – che Deep Blue continua a vincere Kasparov nel quadrato ristretto di una scacchiera con una concatenazione di algoritmi che appare primitiva rispetto a questo fatto qua delle reti neuronali, delle machine learning, degli apprendimenti non supervisionati e rinforzati, dei fine tuning e compagnia in/cantante.
Vabbè. Quello che è certo è che ogni scelta è una negazione e ogni cosa ha il suo prezzo. Ma (forse) nessuno saprà quanto costa la mia libertà. Nemmeno la super super intelligenza artificiale che verrà. Probabilmente.
“L’intelligenza artificiale è il fuoco più grande che l’umanità abbia mai acceso. Possiamo usarlo per illuminare la nostra strada verso un futuro meraviglioso o per bruciare la casa.” Max Tegmark, “Life 3.0: Being Human in the Age of Artificial Intelligence“
P.s. Non sono sicuro se esista nel libro di Tegmark questa citazione. Il libro l’ho letto troppo tempo fa e la citazione me l’ha suggerita Le Chat di Mistral AI, il chatbot che i francesi stanno vendendo a Microsoft perché porta troppe spese.
…
In appendice, un video realizzato per documentare un momento di riflessione con i miei alunni riflettendo su questi temi.
Sulla violenta repressione inferta oggi sui ragazzi di Pisa, ho chiesto all’intelligenza artificiale generativa di ChatGPt come potesse essere considerato “uno Stato in cui le forze di polizia prendono a manganellate degli studenti minorenni che manifestano in un corteo contro la guerra in Palestina”.
E il bot di OpenAi, con il suo consueto acume freddo e razionale, ha risposto che “uno Stato in cui le forze di polizia prendono a manganellate degli studenti minorenni che manifestano pacificamente è spesso considerato autoritario o repressivo. Questo tipo di azione può essere vista come una violazione dei diritti umani e delle libertà civili, sollevando preoccupazioni riguardo alla libertà di espressione e al diritto di protesta pacifica”.
Lascio alla vostra intelligenza naturale le considerazioni e riflessioni del caso.
Lettera aperta dei docenti del liceo artistico Russoli di Pisa
Siamo docenti del Liceo artistico Russoli di Pisa e oggi siamo rimasti sconcertati da quanto accaduto in via San Frediano, di fronte alla nostra scuola. Studenti per lo più minorenni sono stati manganellati senza motivo perché il corteo che chiedeva il cessate il fuoco in Palestina, assolutamente pacifico, chissà mai perché, non avrebbe dovuto sfilare in Piazza Cavalieri. Gli agenti in assetto antisommossa avevano chiuso la strada e attendevano i ragazzi con scudi e manganelli, mentre dalla parte opposta le forze dell’ordine chiudevano la via all’altezza di Piazza Dante. In via Tavoleria un’altra squadra con scudi e manganelli.
Proprio di fronte all’ingresso del nostro liceo, hanno fatto partire dapprima una carica e poi altre due contro quei giovani con le mani alzate. Non sappiamo se siano volate parole forti, anche fuori luogo, d’indignazione e sdegno, fatto sta che, senza neanche trattare con gli studenti o provare a dialogare, abbiamo assistito a scene di inaudita violenza. Ci siamo trovati ragazze e ragazzi delle nostre classi tremanti, scioccate, chi con un dito rotto, chi con un dolore alla spalla o alla schiena per manganellate gentilmente ricevute, mentre una quantità incredibile di volanti sfrecciava in Via Tavoleria.
Come educatori siamo allibiti di fronte a quanto successo oggi. Riteniamo che qualcuno debba rispondere dello stato di inaudita e ingiustificabile violenza cui sono stati sottoposti cento/duecento studenti scesi in piazza pacificamente: perché si è deciso di chiuderli in un imbuto per poi riempirli di botte? Chi ha deciso questo schieramento di forze, che neanche per iniziative di maggior partecipazione e tensione hanno attraversato la nostra città?
Oggi è stata una giornata vergognosa per chi ha gestito l’ordine pubblico in città e qualcuno ne deve rispondere.
Ci stiamo abituando a troppe cose. Non vorrei che ora ci abituassimo anche ai manganelli.
Una nota sul diritto d’autore e la proprietà intellettuale ai tempi dell’intelligenza artificiale
Questa pachidermica miniatura è venuta fuori con l’ausilio dell’intelligenza artificiale. Negli ultimi tempi, nei miei lavori grafici, mi capita spesso di integrare la mia intelligenza e creatività naturale con l’intelligenza artificiale di PicsArt e di altre risorse disponibili online (Image Creator, Midjourney, Leonardo, Dalle-2…, le provo e le uso un po’ tutte, spudoratamente). Lo faccio sia a partire da prompt testuali sia rielaborando mie foto e disegni preesistenti fatti a mano libera e integrando il tutto con programmi di ritocco di immagini, collage digitali, adesivi e sfondi tratti da gallerie online.
Di chi sia il copyright legale di queste immagini non so dirlo e non mi importa nemmeno saperlo, ma sento mia la loro proprietà intellettuale (che considero cosa semanticamente diversa dal diritto d’autore).
…
Simile discorso per alcune delle foto e delle immagini che compongono questo video, mentre altre non sono per nulla o quasi per nulla ritoccate; io, però, mi concedo il diritto di non distinguere le une dalle altre e le altre dalle une.
Considero tutte ugualmente di mia proprietà intellettuale in quanto dal mio intelletto scaturite.
Chi mi conosce sa che ho una specie di ossessione per gli elefanti.
Li disegno, li colleziono, li spargo per casa, li raccolgo nella mia webteca, li vedo tra le nuvole e nelle chiazze dei pavimenti, li riconosco nelle movenze di tante persone che mi stanno simpatiche, li imito nell’andatura e nell’attaccamento alle radici e alla memoria.
Sull’onda di questa mastodontica mania, nel 2014 feci questo disegnino dai colori sgargianti e vagamente futuristi che fa parte di una serie che chiamo Eleflying in the Sky.
Ieri mi è capitato sotto mano e ho deciso di dargli nuova vita con l’ausilio dell’AI (quella che qui usiamo chiamare intelligenza artificiale traducendo dall’angloamericano originario).
I primi esperimenti li ho fatti con PicsArt, con questi progressivi risultati in cui ho integrato l’intelligenza artificiale con qualche mio ritocco personale.
Poi è stata la volta di DALL·E 2, che, in questa specifica occasione, mi è sembrata piuttosto deludente. Nel secondo caso, avevo chiesto tutta una serie di trasformazioni, ma pare che abbia capito solo quella relativa alle orecchie.
Di seguito, ho chiesto ad Adobe Firefly di trasformarmi la proboscide in un piumino, le orecchie in ali di farfalla, la testa in un allarme luminoso e la coda in una penna, ed ho ottenuto questo risultato.
Infine, ho fatto un piccolo collage senza più ricorrere all’ausilio della AI ed è venuto fuori questo mega-scopino per il cesso.
Niente di sorprendente, come vedete. Solo qualche elefante volante con orecchie della stessa sostanza dei sogni basato su quel pachiderma visto di spalle che col tempo è diventato una specie di mio logo personale, come una firma in formato grafico.
…
In appendice, un link a un video pachidermico con sottofondo musicale di Héctor Villa-Lobos. Inoltre, chi fosse interessato a questo tipo di rielaborazioni grafiche realizzate con l’intelligenza artificiale potrebbe farsi un giro anche quie soffermarsi sul video.
Affermavo tra le altre cose che “lui, per ora, è un modello di linguaggio, una macchina capace di simulare un modo di esprimersi e un comportamento linguistico umano o umanoide, non un pozzo di scienza o un concentrato di umano sapere e sapienza”. Però, accidenti, proprio in quanto modello di linguaggio credevo che almeno la grammatica italiana l’avesse masticata, digerita e interiorizzata…
Ma, veniamo ai fatti.
Qualche ora fa ho formulato al famigerato bot questo semplice quesito morfologico.
Si dice “negli scorsi giorni” o “nei scorsi giorni”? Rispondi e spiega.
E lui, lesto lesto, tomo tomo e cacchio cacchio mi ha risposto con questo sorprendente concentrato di svarioni grammaticali.
Al che l’ho rimbrottato in questi termini:
Ma sei sicuro? Controlla la regola dell’uso dell’articolo determinativo prima di parole che cominciano con la s impura (come “scorsi”). Inoltre, mi risulta errata nella tua risposta anche la forma “negli* giorni passati”. Ti consiglio un ripassino di grammatica italiana.
A questo punto ho deciso di infierire, non per cattiveria nei confronti del roBOTtino, ma per cercare di capire meglio come funziona il suo meccanismo di risposta.
Va bene. Ma mi sai spiegare da cosa sia potuto scaturire il tuo errore? A me pare particolarmente grave per un modello di linguaggio, che non punta sui contenuti, ma su una forma linguistica scritta che debba apparire il più possibile simile a quella utilizzata da un parlante reale (e competente).
E lui, con con la sua consueta prontezza mi ha risposto:
Poi ha concluso con il suo caratteristico tono umile e deferente:
– Mi dispiace ancora per l’errore e cercherò di fare del mio meglio per evitare simili inesattezze in futuro. Grazie per la tua comprensione.
Ho compreso e ho chiuso temporaneamente la conversazione, sempre più convinto di stare di fronte a uno strumento utile, ma da usare con cautela, parsimonia ed attenzione.
…
Appendice di un paio di ore dopo.
Ho provato a riformulare la stessa domanda da un altro account.
Ebbene, il bot continua a sbagliare.
Tanto che mi sta venendo il dubbio che si dica davvero “nei* giorni scorsi” e che io stia inducendo in errore il povero roBOTtino.
In qualche modo ho come l’impressione di trovarmi di fronte ad uno di quegli alunni che una volta che hanno capito male una regola, la lasciano sedimentare dentro di loro a tal punto che sradicarla risulta quasi impossibile.
Ma magari suo fratello ChatGPT 4.0 è più sveglio, più flessibile e più pronto a imparare dai propri errori. Io uso ancora la versione gratuita ChtGPT 3.5. E per ora va bene così.
La clip video del mio breve racconto in forma di dialogo intitolato Dialogo immaginifico.
Il video – della durata di trenta secondi – l’ho realizzato mettendo insieme varie elaborazioni e rielaborazioni di un’immagine creata con l’ausilio dell’intelligenza artificiale. Il prompt era basato sulla creazione di uno psichiatra con faccia da fantasma. Lo sfondo dell’immagine conclusiva è una mia elaborazione digitale di una foto (reale) di qualche anno fa. Una con/fusione di reale e immaginario, che trovo piuttosto produttiva.
La musica di sottofondo, l’avrete riconosciuta, è l’andante del “Vecchio Castello” tratto dai “Quadri di un’esposizione” di Mussorgskij. Un compositore che trovo sempre facile ascoltare, rivivere e navigare con i sensi e la ragione.