Ultime notizie DaziDonald TrumpElon MuskFemminicidi
TECNOLOGIAChatGPTFirenzeInchiesteIntelligenza artificialeOpenAIToscana

Usa ChatGPT per il processo ma il chatbot si inventa le sentenze della Cassazione: l’imbarazzo per un avvocato fiorentino

05 Aprile 2025 - 19:57 Alba Romano
avvocato firenze chatgpt
avvocato firenze chatgpt
È successo durante un procedimento civile. Il legale si è difeso additando le presunte colpe di una sua collaboratrice, mentre l'altra parte insisteva sulla «mala fede» delle invenzioni presentate ai giudici

Aveva usato ChatGPT per trovare riferimenti a sentenze della Corte di Cassazione italiana, salvo citarne nella memoria difensiva molte che non sono mai esistite. È accaduto nelle aule del tribunale di Firenze, in particolare della Sezione Imprese durante un procedimenti civile riguardo a una questione di tutela di marchi e diritto d’autore. L’avvocato della difesa, secondo quanto hanno stabilito i giudici, avrebbe consultato l’intelligenza artificiale generativa di OpenAi per velocizzare la sua ricerca, senza però controllare in un secondo momento se effettivamente quelle sentenze fossero presenti. Il legale era stato accusato dall’altra parte di lite temeraria, quindi di aver volontariamente e con dolo inserito riferimenti fasulli per guadagnare un vantaggio processuale.

Le invenzioni di ChatGPT

Errare è umano, ma non solo. Soprattutto quando si ha a che fare con chatbot che fanno del loro unico scopo di esistenza la soddisfazione più completa e totale delle richieste del loro cliente e interlocutore. E più le materie o le richieste sono specifiche, più l’intelligenza artificiale si sforzerà di trovare delle risposte che possano esaurire la curiosità dell’umano. Anche a costo di inventarsele di sana pianta. Ai giudici fiorentini è bastato un semplice controllo, infatti, per rendersi conto che alcune delle sentenze della Cassazione citate dal legale della difesa non erano semplicemente mai state emesse.

L’attacco dei legali: «C’è mala fede, voleva ingannare»

In chiaro imbarazzo e messo all’angolo dall’errore grossolano, il legale si è giustificato spiegando che la responsabilità di quelle ricerche era da affibbiare completamente a una sua collaboratrice: «Non sapevo che fossero stati generati con l’intelligenza artificiale». L’accusa ha invece provato a sostenere che si trattasse di lite temeraria, in base all’articolo 96 del Codice di procedura penale. I giudici hanno escluso questa possibilità, sottolineando come non ci fosse evidenza né di un comportamento in mala fede né di un evidente danneggiamento dell’altra parte. Ha comunque riconosciuto l’omesso controllo da parte del legale, che a sua volta a chiesto che quei riferimenti inventati fossero stralciati dal documento perché ritenuti non decisivi per la sua strategia difensiva.

leggi anche