Post

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

Quando si entra nel fantastico mondo dell'analisi dei dati il primo ingrediente che serve sono... i dati. E le raccolte di dati diventano fondamentali anche in seguito quando, ad esempio, si vuole addestrare un modello di machine learning. In questa pagina annoto i siti dai quali è possibile scaricare gratuitamente e legalmente dataset curati di dati. Chiunque può contribuire segnalandone di nuovi nei commenti Meta Datasets . La pagina dei Datasets di Meta AI offre un'incredibile raccolta di dataset su larga scala e benchmark per l'addestramento, il test e la valutazione dei modelli di intelligenza artificiale. I dataset coprono vari ambiti come la segmentazione degli oggetti, modelli visione-linguaggio, ricostruzione 3D, equità algoritmica e traduzione automatica. Esempi includono il dataset SA-V per la segmentazione, FACET per valutare l'equità nei modelli visivi e Ego4D per la comprensione di video in prima persona. Tutti i dataset possono essere scaricati gratuita...

Microsoft Releases POML (Prompt Orchestration Markup Language): Bringing Modularity and Scalability to LLM Prompts - MarkTechPost

Prompt engineering has become foundational in the development of advanced applications powered by Large Language Models (LLMs). As prompts have grown in complexity—incorporating dynamic components, multiple roles, structured data, and varied output formats—the limitations of unstructured text approaches have become evident. Microsoft released Prompt Orchestration Markup Language (POML) , a novel open-source framework designed to bring order, modularity, and extensibility to prompt engineering for LLMs. Read more:  https://www.marktechpost.com/2025/08/13/microsoft-releases-poml-prompt-orchestration-markup-language/ Potrebbe anche servirti "POML su Github":  https://github.com/microsoft/poml?tab=readme-ov-file

Why I Switched to JSON Prompting and Why You Should Too - Analytics Vidhya

When we interact with LLMs, we typically use natural language, typing a paragraph and hoping the model understands our intent. This approach works until it fails, due to unclear instructions, missing context, or formatting issues that confuse even capable systems. JSON prompting is an emerging technique that uses structured data instead of free-form text. By organizing instructions, examples, and constraints into a JSON object, we sacrifice some conversational warmth for greater precision. The result is a prompt that is both human-readable and easily parsed by code. This article explains why this matters, how JSON prompts differ from standard prompts, and provides a step-by-step guide for crafting them effectively. Read more: https://www.analyticsvidhya.com/blog/2025/08/json-prompting/

Con l'intelligenza artificiale agentica siamo stati troppo ottimisti? - Wired

Le previsioni sull’agentic AI, quella che dovrebbe svolgere in autonomia alcune attività al posto nostro, sono molto meno positive di quanto speravano i suoi produttori La notizia è di quelle che fa subito rumore. La società di consulenza strategica Gartner ha rilasciato il suo ultimo report e le sue previsioni sul futuro dell’ intelligenza artificiale agentica sono state piuttosto negative. Secondo un’analisi del mercato attuale, il 40% dei progetti nel campo verrà abbandonato per entro la fine del 2027 . I motivi sono diversi, ma in cima alla lista troviamo tre ragioni principali: la lievitazione costi, un valore commerciale poco chiaro e un controllo dei rischi inadeguato. In una parola, in molti casi si tratta di hype , clamore. Leggi tutto: https://www.wired.it/article/intelligenza-artificiale-agentica-tendenze-mercato/

Apple contro i modelli IA che “pensano”: davvero il ragionamento è solo un'illusione? - DDay

Un paper di Cupertino critica i modelli reasoning: non hanno un reale vantaggio rispetto ai semplici LLM perché collassano quando i problemi diventano più complessi, cioè quando questi modelli sarebbero più utili. Ma è davvero così? Apple ha visto giusto? Leggi tutto:  https://www.dday.it/redazione/53319/apple-contro-i-modelli-ia-che-pensano-davvero-il-ragionamento-e-solo-unillusione

Introducing Gemma 3: The most capable model you can run on a single GPU or TPU - Google

Today, we're introducing Gemma 3, a collection of lightweight, state-of-the-art open models built from the same research and technology that powers our Gemini 2.0 models. These are our most advanced, portable and responsibly developed open models yet. They are designed to run fast, directly on devices — from phones and laptops to workstations — helping developers create AI applications, wherever people need them. Gemma 3 comes in a range of sizes (1B, 4B, 12B and 27B), allowing you to choose the best model for your specific hardware and performance needs. In this post, we'll explore Gemma 3's capabilities, introduce ShieldGemma 2, and share how you can join the expanding Gemmaverse. Read more:  https://blog.google/technology/developers/gemma-3/

Google ha creato i Titan: modelli IA con la “memoria simile al cervello umano” - DDay

Ricercatori di Google hanno pubblicato una ricerca riguardante "Titan”, una nuova architettura per gestire la memoria nei modelli di IA, affrontando i limiti dei Transformer tradizionali, specialmente nella gestione di contesti lunghi. La famiglia di modelli Titan introduce infatti una memoria (logica) neurale modulare capace di memorizzare, dimenticare e richiamare informazioni in modo adattivo , migliorando l'efficienza e la scalabilità su sequenze estremamente lunghe. Prima di parlare dei Titan è però importante stabilire un concetto importante sulla memoria logica che utilizzano: la memoria opera solo durante l'inferenza come un "sistema di apprendimento", ma non si aggiunge ai dati di training . Cioè, il modello non impara sempre più cose continuando a usarlo. La memoria è contestuale solo alla richieste della singola “chat” o alle successive comunque correlate a essa . Leggi tutto:  https://www.dday.it/redazione/51731/google-ha-creato-i-titan-modelli-ia-co...

Abbiamo bisogno di algoritmi ad hoc per allenare l'intelligenza - Wired

Il problema più rilevante che l’umanità sta affrontando è il confronto tra intelligenza umana e artificiale . Il tema è controverso e aperto: controverso perché ci sono posizioni opposte tra chi ritiene che l’intelligenza umana non potrà mai essere superata e chi invece sostiene esattamente il contrario; aperto perché può condurre a esiti imprevedibili in ogni direzione. Di sicuro non abbiamo maturato una coscienza dell’intelligenza artificiale , intesa come consapevolezza delle conseguenze che può comportare il suo sviluppo , che, come ricorda padre Paolo Benanti “ha bisogno di regole etiche” . Leggi tutto:  https://www.wired.it/article/intelligenza-artificiale-algoritmi-educativi-scuola/