Post

Visualizzazione dei post da febbraio, 2024

JSON - Cos'è , a cosa serve e come si legge

Immagine
(Attenzione: questo testo è stato scritto da Chat-GPT. Lo rivedrò non appena avrò acquisto le competenze necessarie; in questo momento mi serve come appunto) Cos'è un file JSON? JSON, acronimo di JavaScript Object Notation, è un formato di file leggero utilizzato per lo scambio di dati tra un server e un client web. È basato sulla sintassi di JavaScript, ma è indipendente dal linguaggio, il che significa che può essere utilizzato con una vasta gamma di linguaggi di programmazione. A cosa serve un file JSON? Un file JSON serve a memorizzare e trasmettere dati in modo strutturato e leggibile sia per le persone che per le macchine. È ampiamente utilizzato nelle applicazioni web per scambiare informazioni tra il front-end e il back-end, ma trova anche impiego in vari contesti, come l'archiviazione di configurazioni, il salvataggio di dati di configurazione per le applicazioni, l'archiviazione di dati in database NoSQL e altro ancora. Come si legge un file JSON? Un file JSON è c

Analisi degli andamenti di borsa con algoritmi di machine learning

Questa è semplicemente una pagina di appunti sul tema "come guadagnare in borsa con l'Intelligenza artificiale". La premessa doverosa è che difficilmente (molto ma molto difficilmente) si può guadagnare in borsa dopo aver letto questi quattro appunti, ma le serie storiche degli indici di borsa rappresentano una bella palestra per le analisi previsionali. E questo è l'aspetto che più mi interessa Libri "Advances in Financial Machine Learning" di Marcos Lopez De Prado , ovvero perché  l'Intelligenza artificiale non riesce a prevedere l'andamento dei titoli di borsa "Previsione, principi e pratica" , di  Rob J Hyndman e George Athanasopoulos. Libro di statistica base pubblicato dal Department of Econometrics and Business Statistics della Monash University, Australia. Il libro è interamente e gratuitamente disponibile online.  "Codeless Time Series Analysis with KNIME", di Corey Weisinger, Daniele Tonini, Maarit Widmann . Illustra le

API (Application Programming Interfaces) - Cosa sono e come si usano

Immagine
(Attenzione: questo testo è stato scritto da Chat-GPT. Lo rivedrò non appena avrò acquisto le competenze necessarie; in questo momento mi serve come appunto) Definizione di API Le API sono essenzialmente dei set di strumenti e protocolli che consentono a diverse applicazioni software di comunicare tra loro. Possono essere paragonate a una sorta di ponte virtuale che collega diverse parti di un sistema, consentendo lo scambio di dati e funzionalità in modo efficiente e standardizzato. Cosa sono le API Le API possono assumere diverse forme e funzioni. Possono essere API web, che permettono a un'applicazione di interagire con servizi e risorse tramite Internet, o API locali, che facilitano la comunicazione tra diverse componenti di un sistema software su un unico dispositivo. Le API sono ampiamente utilizzate in una varietà di contesti, dallo sviluppo di app mobili e siti web alla creazione di software aziendale su larga scala. Consentono agli sviluppatori di integrare funzionalità es

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

Quando si entra nel fantastico mondo dell'analisi dei dati il primo ingrediente che serve sono... i dati. E le raccolte di dati diventano fondamentali anche in seguito quando, ad esempio, si vuole addestrare un modello  di machine learning. In questa pagina annoto i siti dai quali è possibile scaricare gratuitamente e legalmente dataset curati di dati. Chiunque può contribuire segnalandone di nuovi nei commenti Kaggle ha un'intera sezione dedicata ai dataset, che possono essere liberamente scaricati e utilizzati per esercitarsi. Si trovano raccolte di dati di natura diversissima: i modelli di smartphone, con tutte le loro caratteristiche e fascia di prezzo; le raccolte di tweet per addestrare i modelli di machine learning ad indentificare i discorsi di incitamento all'odio e il linguaggio offensivo; le performance degli studenti liceali dei Paesi OECD in matematica, lettura e scienze e così via. Insomma, se hai bisogno di un database per un progetto, molto probabilmente su

Piano Triennale per l’informatica nella Pubblica Amministrazione ed economia dei dati

 Oggi è stata pubblicata la versione aggiornata del Piano Triennale per l'Informatica nella Pubblica Amministrazione, edizione 2024-2026. Il capitolo 5 è interamente si focalizza su "Dati e Intelligenza Artificiale", riconoscendo che: "La valorizzazione del patrimonio informativo pubblico è un obiettivo strategico per la Pubblica Amministrazione per affrontare efficacemente le nuove sfide dell’economia basata sui dati (data economy), supportare gli obiettivi definiti dalla Strategia europea in materia di dati, garantire la creazione di servizi digitali a valore aggiunto per cittadini, imprese e, in generale, per tutti i portatori di interesse e fornire ai vertici decisionali strumenti data-driven da utilizzare nei processi organizzativi e/o produttivi. La ingente quantità di dati prodotti dalla Pubblica Amministrazione, se caratterizzati da un’alta qualità, potrà costituire, inoltre, la base per una grande varietà di applicazioni come, per esempio, quelle riferite al

Driving Value and Making an Impact with Data - Digital First Magazine

Rosaria Silipo, PhD, now VP of data science evangelism at KNIME, has spent 25+ years in applied AI, predictive analytics and machine learning at Siemens, Viseca, Nuance Communications, and private consulting. Sharing her practical experience in a broad range of industries and deployments, including IoT, customer intelligence, financial services, social media, and cybersecurity, Rosaria has authored 50+ technical publications, including her recent books: “Guide to Intelligent Data Science” (Springer) and “Codeless Deep Learning with KNIME” (Packt). Recently, in an exclusive interview with Digital First Magazine, Rosaria shared her professional trajectory, roles and responsibilities as Head of Data Science Evangelism at KNIME, insights on the future of data science, personal hobbies and interest, future plans, pearls of wisdom, and much more. The following excerpts are taken from the interview. Leggi tutto:  https://www.digitalfirstmagazine.com/driving-value-and-making-an-impact-with-da

EDA - Cos'è e come si fa l'analisi esplorativa dei dati

L'Analisi Esplorativa dei Dati (EDA, dall'inglese Exploratory Data Analysis ) è un approccio metodologico per analizzare e visualizzare i dati al fine di estrarre informazioni significative, individuare pattern, tendenze, anomalie e relazioni tra le variabili. È una fase fondamentale nel processo di analisi dei dati e precede spesso l'applicazione di modelli statistici o algoritmi di machine learning. Ecco i passaggi tipici di un'analisi esplorativa dei dati: 1. Acquisizione dei dati: Raccogliere i dati da fonti diverse come database, file CSV, API, ecc. 2. Esplorazione dei dati: Esaminare le caratteristiche dei dati, come il tipo di variabili (numeriche, categoriche), la loro distribuzione, la presenza di valori mancanti o outlier. 3. Visualizzazione dei dati: Utilizzare grafici e diagrammi per rappresentare visivamente i dati e ottenere una comprensione più chiara delle relazioni tra le variabili. Questo può includere istogrammi, scatter plot, box plot, diagrammi a to

Data, analytics, and decisions: An interview with Teradata’s CFO - McKinsey & Company

In questa intervista Claire Bramley, CFO di Teradata, spiega come i dati e l'analisi predittiva possono supportare le decisioni strategiche, finanziarie e di assunzione del rischio in un'azienda: «Agility requires early indicators: we call them “trip wires.” It’s the information that allows you to say, “Hang on a minute. This isn’t progressing the way we anticipated. Is this a trend, or is it a one-time situation?” We continue to evolve our thinking and decision making based on the new data that we get every day.» Leggi tutto:  https://www.mckinsey.com/capabilities/strategy-and-corporate-finance/our-insights/data-analytics-and-decisions-an-interview-with-teradatas-cfo