Post

Visualizzazione dei post da febbraio, 2024

Data drawing: cos'è e perché è utile?

Immagine
Il data drawing ,  "disegno dei dati", è una tecnica che consiste nel visualizzare dati e informazioni attraverso il disegno a mano libera. Invece di utilizzare software di visualizzazione dati, si utilizzano carta, penna e matita per creare grafici, diagrammi, illustrazioni e altre rappresentazioni visive dei dati. Perché utilizzare il data drawing? Esistono diversi vantaggi nell'utilizzo del data drawing: rapidità e flessibilità: è un modo veloce e flessibile per esplorare diverse idee e visualizzazioni; semplicità e chiarezza: il disegno a mano libera aiuta a concentrarsi sull'essenza dei dati, eliminando le distrazioni degli strumenti digitali; creatività e originalità: permette di esplorare nuove possibilità e di creare visualizzazioni uniche e personalizzate; comprensione e apprendimento: il processo di disegno può aiutare a comprendere meglio i dati e a fissare i concetti in modo più efficace. A chi è utile il data drawing? Il data drawing può esser

What’s the Worth of Your Small Business Data? - Techeconomy

In an era where global giants have been defined by data abundance, small businesses must embrace a strategic approach to data utilization, one that prioritizes intelligence and agility. By leveraging advanced analytics, artificial intelligence, and robust data management practices, businesses can extract actionable insights, fuel digital transformation, and enhance customer experiences. Leggi tutto:  https://techeconomy.ng/whats-the-worth-of-your-small-business-data/

Perché l'intelligenza artificiale da tenere d'occhio è quella “noiosa” - Wired

"A me piace parlare di quella che chiamo intelligenza artificiale ‘noiosa’ – conclude Quintarelli -. L’AI è balzata agli onori della cronaca per capacità di generare testi, immagini, video eccetera. Ma non è l’unica AI che esiste. Se io penso alla ricerca nella produzione delle sementi, al lavoro nelle grandi piantagioni per la semina, alla raccolta dei pomodori, alla selezione dei pomodori di buona qualità o bassa qualità, alla logistica, al loro trasporto, alla determinazione del prezzo per metterlo sullo scaffale, fino alla persona che cerca la ricetta, so che dietro ci sono molti sistemi di intelligenza artificiale, quindi l’AI è già con noi ogni volta che mangiamo un pomodoro, solo che non la vediamo. Questa è l’AI noiosa che però è anche quella che produce effetti maggiormente significativi sulla bottom line delle aziende, quella che dovrebbe essere adottata di corsa. La parte dell’AI generativa è sì, interessante, ma sbaglia ancora molto, mentre questa parte dell’AI è già m

How much statistics is enough to do data science? - Knime blog

Some people say, “The data speaks for itself.”  But the data never speaks. And it needs interpreters.  Data science and statistics go hand in hand. In data science, we collect, analyze, and visualize data. Statistics give us a lens on our data to spot patterns, trends, and connections. Statistics help us see when our analysis is off and ensure our analysis isn’t just based on intuition but grounded in fact.  Statistical thinking can help you decide whether ideas, commonly believed to be sound and intuitive, are perhaps not as rational as initially perceived. While the outcome of an analysis might seem straightforward on the surface, statistical analysis allows us to delve deeper. Leggi tutto:  https://www.knime.com/blog/statistics-for-data-science

JSON - Cos'è , a cosa serve e come si legge

Immagine
(Attenzione: questo testo è stato scritto da Chat-GPT. Lo rivedrò non appena avrò acquisto le competenze necessarie; in questo momento mi serve come appunto) Cos'è un file JSON? JSON, acronimo di JavaScript Object Notation, è un formato di file leggero utilizzato per lo scambio di dati tra un server e un client web. È basato sulla sintassi di JavaScript, ma è indipendente dal linguaggio, il che significa che può essere utilizzato con una vasta gamma di linguaggi di programmazione. A cosa serve un file JSON? Un file JSON serve a memorizzare e trasmettere dati in modo strutturato e leggibile sia per le persone che per le macchine. È ampiamente utilizzato nelle applicazioni web per scambiare informazioni tra il front-end e il back-end, ma trova anche impiego in vari contesti, come l'archiviazione di configurazioni, il salvataggio di dati di configurazione per le applicazioni, l'archiviazione di dati in database NoSQL e altro ancora. Come si legge un file JSON? Un file JSON è c

API (Application Programming Interfaces) - Cosa sono e come si usano

Immagine
(Attenzione: questo testo è stato scritto da Chat-GPT. Lo rivedrò non appena avrò acquisto le competenze necessarie; in questo momento mi serve come appunto) Definizione di API Le API sono essenzialmente dei set di strumenti e protocolli che consentono a diverse applicazioni software di comunicare tra loro. Possono essere paragonate a una sorta di ponte virtuale che collega diverse parti di un sistema, consentendo lo scambio di dati e funzionalità in modo efficiente e standardizzato. Cosa sono le API Le API possono assumere diverse forme e funzioni. Possono essere API web, che permettono a un'applicazione di interagire con servizi e risorse tramite Internet, o API locali, che facilitano la comunicazione tra diverse componenti di un sistema software su un unico dispositivo. Le API sono ampiamente utilizzate in una varietà di contesti, dallo sviluppo di app mobili e siti web alla creazione di software aziendale su larga scala. Consentono agli sviluppatori di integrare funzionalità es

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

Quando si entra nel fantastico mondo dell'analisi dei dati il primo ingrediente che serve sono... i dati. E le raccolte di dati diventano fondamentali anche in seguito quando, ad esempio, si vuole addestrare un modello  di machine learning. In questa pagina annoto i siti dai quali è possibile scaricare gratuitamente e legalmente dataset curati di dati. Chiunque può contribuire segnalandone di nuovi nei commenti Kaggle ha un'intera sezione dedicata ai dataset, che possono essere liberamente scaricati e utilizzati per esercitarsi. Si trovano raccolte di dati di natura diversissima: i modelli di smartphone, con tutte le loro caratteristiche e fascia di prezzo; le raccolte di tweet per addestrare i modelli di machine learning ad indentificare i discorsi di incitamento all'odio e il linguaggio offensivo; le performance degli studenti liceali dei Paesi OECD in matematica, lettura e scienze e così via. Insomma, se hai bisogno di un database per un progetto, molto probabilmente su

Can Machine Learning Outperform Statistical Models for Time Series Forecasting? - Satyajit Chaudhuri su Medium

People often pick standard models like ARIMA (Auto Regressive Integrated Moving Average), Exponential Smoothing, and Seasonal Decomposition of Time Series (STL) for time series analysis. They’re good because they’re easy to understand, sturdy against data assumptions, and based on strong theory. This is why they’re top choices for future predictions. As machine learning advances, we see a big increase in their use for predicting time series data. Tools like bagging and boosting stand out because they show great ability to spot tricky patterns and unusual links in time series data. Their unique feature is learning directly from raw data. They can deal with massive amounts of data and make accurate guesses. The following article is an experimental study that uses both statistical forecasts and machine learning-based forecasts to predict the future for a practical use case. The study then proceeds to compare the forecasts based on certain accuracy metrics in order to judge if the mach

Piano Triennale per l’informatica nella Pubblica Amministrazione ed economia dei dati

 Oggi è stata pubblicata la versione aggiornata del Piano Triennale per l'Informatica nella Pubblica Amministrazione, edizione 2024-2026. Il capitolo 5 è interamente si focalizza su "Dati e Intelligenza Artificiale", riconoscendo che: "La valorizzazione del patrimonio informativo pubblico è un obiettivo strategico per la Pubblica Amministrazione per affrontare efficacemente le nuove sfide dell’economia basata sui dati (data economy), supportare gli obiettivi definiti dalla Strategia europea in materia di dati, garantire la creazione di servizi digitali a valore aggiunto per cittadini, imprese e, in generale, per tutti i portatori di interesse e fornire ai vertici decisionali strumenti data-driven da utilizzare nei processi organizzativi e/o produttivi. La ingente quantità di dati prodotti dalla Pubblica Amministrazione, se caratterizzati da un’alta qualità, potrà costituire, inoltre, la base per una grande varietà di applicazioni come, per esempio, quelle riferite al

Driving Value and Making an Impact with Data - Digital First Magazine

Rosaria Silipo, PhD, now VP of data science evangelism at KNIME, has spent 25+ years in applied AI, predictive analytics and machine learning at Siemens, Viseca, Nuance Communications, and private consulting. Sharing her practical experience in a broad range of industries and deployments, including IoT, customer intelligence, financial services, social media, and cybersecurity, Rosaria has authored 50+ technical publications, including her recent books: “Guide to Intelligent Data Science” (Springer) and “Codeless Deep Learning with KNIME” (Packt). Recently, in an exclusive interview with Digital First Magazine, Rosaria shared her professional trajectory, roles and responsibilities as Head of Data Science Evangelism at KNIME, insights on the future of data science, personal hobbies and interest, future plans, pearls of wisdom, and much more. The following excerpts are taken from the interview. Leggi tutto:  https://www.digitalfirstmagazine.com/driving-value-and-making-an-impact-with-da

EDA - Cos'è e come si fa l'analisi esplorativa dei dati

L'Analisi Esplorativa dei Dati (EDA, dall'inglese Exploratory Data Analysis ) è un approccio metodologico per analizzare e visualizzare i dati al fine di estrarre informazioni significative, individuare pattern, tendenze, anomalie e relazioni tra le variabili. È una fase fondamentale nel processo di analisi dei dati e precede spesso l'applicazione di modelli statistici o algoritmi di machine learning. Ecco i passaggi tipici di un'analisi esplorativa dei dati: 1. Acquisizione dei dati: Raccogliere i dati da fonti diverse come database, file CSV, API, ecc. 2. Esplorazione dei dati: Esaminare le caratteristiche dei dati, come il tipo di variabili (numeriche, categoriche), la loro distribuzione, la presenza di valori mancanti o outlier. 3. Visualizzazione dei dati: Utilizzare grafici e diagrammi per rappresentare visivamente i dati e ottenere una comprensione più chiara delle relazioni tra le variabili. Questo può includere istogrammi, scatter plot, box plot, diagrammi a to

Data, analytics, and decisions: An interview with Teradata’s CFO - McKinsey & Company

In questa intervista Claire Bramley, CFO di Teradata, spiega come i dati e l'analisi predittiva possono supportare le decisioni strategiche, finanziarie e di assunzione del rischio in un'azienda: «Agility requires early indicators: we call them “trip wires.” It’s the information that allows you to say, “Hang on a minute. This isn’t progressing the way we anticipated. Is this a trend, or is it a one-time situation?” We continue to evolve our thinking and decision making based on the new data that we get every day.» Leggi tutto:  https://www.mckinsey.com/capabilities/strategy-and-corporate-finance/our-insights/data-analytics-and-decisions-an-interview-with-teradatas-cfo