Post

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

Quando si entra nel fantastico mondo dell'analisi dei dati il primo ingrediente che serve sono... i dati. E le raccolte di dati diventano fondamentali anche in seguito quando, ad esempio, si vuole addestrare un modello di machine learning. In questa pagina annoto i siti dai quali è possibile scaricare gratuitamente e legalmente dataset curati di dati. Chiunque può contribuire segnalandone di nuovi nei commenti Meta Datasets . La pagina dei Datasets di Meta AI offre un'incredibile raccolta di dataset su larga scala e benchmark per l'addestramento, il test e la valutazione dei modelli di intelligenza artificiale. I dataset coprono vari ambiti come la segmentazione degli oggetti, modelli visione-linguaggio, ricostruzione 3D, equità algoritmica e traduzione automatica. Esempi includono il dataset SA-V per la segmentazione, FACET per valutare l'equità nei modelli visivi e Ego4D per la comprensione di video in prima persona. Tutti i dataset possono essere scaricati gratuita...

Alternative a Yahoo Finance per scaricare i dati di borsa

Dennis Ganzaroli, nel suo libro "The Knime Way - The Visual Data Language" , suggerisce questa query https://query2.finance.yahoo.com/v8/finance/chart/ENI.MI?period1=1493205443 &period2=1495797443&interval=1d&events=history&crumb=jL5lEa4DGxl e funziona ! Le altre fonti di dati che avevo elencato, nel post originale pubblicato qui sotto, rimangono comunque valide alternative. *** Da qualche mese non è più possibile scaricare gratuitamente lo storico dei dati di borsa da Yahoo Finance. Una scelta comprensibile, dettata probabilmente dalla volontà di monetizzare i dati in loro possesso, ma che rappresenta una perdita per chi utilizza queste informazioni come campo di allenamento per attività di analisi dei dati. I dati di borsa sono, infatti, una delle risorse più versatili per esercitarsi in tutte le fasi del processo di analisi: dall’estrazione e pulizia dei dati, alla loro trasformazione, fino all...

Microsoft Releases POML (Prompt Orchestration Markup Language): Bringing Modularity and Scalability to LLM Prompts - MarkTechPost

Prompt engineering has become foundational in the development of advanced applications powered by Large Language Models (LLMs). As prompts have grown in complexity—incorporating dynamic components, multiple roles, structured data, and varied output formats—the limitations of unstructured text approaches have become evident. Microsoft released Prompt Orchestration Markup Language (POML) , a novel open-source framework designed to bring order, modularity, and extensibility to prompt engineering for LLMs. Read more:  https://www.marktechpost.com/2025/08/13/microsoft-releases-poml-prompt-orchestration-markup-language/ Potrebbe anche servirti "POML su Github":  https://github.com/microsoft/poml?tab=readme-ov-file

Why I Switched to JSON Prompting and Why You Should Too - Analytics Vidhya

When we interact with LLMs, we typically use natural language, typing a paragraph and hoping the model understands our intent. This approach works until it fails, due to unclear instructions, missing context, or formatting issues that confuse even capable systems. JSON prompting is an emerging technique that uses structured data instead of free-form text. By organizing instructions, examples, and constraints into a JSON object, we sacrifice some conversational warmth for greater precision. The result is a prompt that is both human-readable and easily parsed by code. This article explains why this matters, how JSON prompts differ from standard prompts, and provides a step-by-step guide for crafting them effectively. Read more: https://www.analyticsvidhya.com/blog/2025/08/json-prompting/

Con l'intelligenza artificiale agentica siamo stati troppo ottimisti? - Wired

Le previsioni sull’agentic AI, quella che dovrebbe svolgere in autonomia alcune attività al posto nostro, sono molto meno positive di quanto speravano i suoi produttori La notizia è di quelle che fa subito rumore. La società di consulenza strategica Gartner ha rilasciato il suo ultimo report e le sue previsioni sul futuro dell’ intelligenza artificiale agentica sono state piuttosto negative. Secondo un’analisi del mercato attuale, il 40% dei progetti nel campo verrà abbandonato per entro la fine del 2027 . I motivi sono diversi, ma in cima alla lista troviamo tre ragioni principali: la lievitazione costi, un valore commerciale poco chiaro e un controllo dei rischi inadeguato. In una parola, in molti casi si tratta di hype , clamore. Leggi tutto: https://www.wired.it/article/intelligenza-artificiale-agentica-tendenze-mercato/

Apple contro i modelli IA che “pensano”: davvero il ragionamento è solo un'illusione? - DDay

Un paper di Cupertino critica i modelli reasoning: non hanno un reale vantaggio rispetto ai semplici LLM perché collassano quando i problemi diventano più complessi, cioè quando questi modelli sarebbero più utili. Ma è davvero così? Apple ha visto giusto? Leggi tutto:  https://www.dday.it/redazione/53319/apple-contro-i-modelli-ia-che-pensano-davvero-il-ragionamento-e-solo-unillusione

Introducing Gemma 3: The most capable model you can run on a single GPU or TPU - Google

Today, we're introducing Gemma 3, a collection of lightweight, state-of-the-art open models built from the same research and technology that powers our Gemini 2.0 models. These are our most advanced, portable and responsibly developed open models yet. They are designed to run fast, directly on devices — from phones and laptops to workstations — helping developers create AI applications, wherever people need them. Gemma 3 comes in a range of sizes (1B, 4B, 12B and 27B), allowing you to choose the best model for your specific hardware and performance needs. In this post, we'll explore Gemma 3's capabilities, introduce ShieldGemma 2, and share how you can join the expanding Gemmaverse. Read more:  https://blog.google/technology/developers/gemma-3/

Google ha creato i Titan: modelli IA con la “memoria simile al cervello umano” - DDay

Ricercatori di Google hanno pubblicato una ricerca riguardante "Titan”, una nuova architettura per gestire la memoria nei modelli di IA, affrontando i limiti dei Transformer tradizionali, specialmente nella gestione di contesti lunghi. La famiglia di modelli Titan introduce infatti una memoria (logica) neurale modulare capace di memorizzare, dimenticare e richiamare informazioni in modo adattivo , migliorando l'efficienza e la scalabilità su sequenze estremamente lunghe. Prima di parlare dei Titan è però importante stabilire un concetto importante sulla memoria logica che utilizzano: la memoria opera solo durante l'inferenza come un "sistema di apprendimento", ma non si aggiunge ai dati di training . Cioè, il modello non impara sempre più cose continuando a usarlo. La memoria è contestuale solo alla richieste della singola “chat” o alle successive comunque correlate a essa . Leggi tutto:  https://www.dday.it/redazione/51731/google-ha-creato-i-titan-modelli-ia-co...