Local blog for Italian speaking developers
Come muovere i primi passi con il machine learning su Arduino
13 novembre 2019
Un guest post di Sandeep Mistry e Dominic Pajak del team Arduino
Arduino
ha intrapreso una missione: rendere il machine learning sufficientemente semplice da poter essere utilizzato da chiunque. Abbiamo lavorato con il team TensorFlow Lite negli ultimi mesi e siamo entusiasti di mostrarti cosa abbiamo ottenuto: portare TensorFlow Lite Micro in
Arduino Nano 33 BLE Sense
. In questo articolo, ti mostreremo come installare ed eseguire diversi nuovi esempi di
TensorFlow Lite Micro
che sono ora disponibili nell'
Arduino Library Manager
.
Il primo tutorial di seguito mostra come installare una rete neurale sulla scheda Arduino che riconosca semplici comandi vocali.
Esempio 1: Esecuzione dell'esempio di inferenza micro_speech pre-addestrato.
Successivamente, presenteremo un tutorial più approfondito che puoi utilizzare per addestrare il tuo modello di riconoscimento gestuale personalizzato per Arduino utilizzando TensorFlow in Colab. Questo materiale si basa su un seminario pratico tenuto da Sandeep Mistry e Don Coleman; una versione aggiornata è
ora online
.
Esempio 2: Addestrare il proprio modello di classificazione gestuale.
Se hai precedenti esperienze con Arduino, potresti riuscire a far funzionare questi tutorial in un paio d'ore. Se i microcontrollori sono per te un argomento interamente nuovo, potrebbe essere necessario un po' più di tempo.
Siamo entusiasti di condividere con te alcuni dei primi esempi e tutorial e non vediamo l'ora di scoprire cosa creerai a partire da queste indicazioni. Iniziamo!
https://medium.com/media/b5f85ab7179553edce820a7a39a26968/href
Nota: i seguenti progetti sono basati su TensorFlow Lite per microcontrollori, attualmente in fase sperimentale nel
repository TensorFlow
. Questo è ancora un campo nuovo ed emergente!
Microcontrollori e TinyML
I microcontrollori, come quelli utilizzati sulle schede Arduino, sono sistemi informatici a chip singolo, economici e indipendenti. Sono i computer invisibili incorporati all'interno di
miliardi
di gadget che usiamo tutti i giorni, come indossabili, droni, stampanti 3D, giocattoli, cuociriso, prese intelligenti, scooter elettrici, lavatrici. La tendenza a collegare questi dispositivi fa parte di ciò che viene chiamato Internet of Things.
Arduino è una piattaforma open source e una community il cui obiettivo è rendere accessibile a
tutti
lo sviluppo di applicazioni sui microcontrollori. La
scheda
che usiamo qui ha un microcontrollore Arm Cortex-M4 a 64 MHz con 1 MB di memoria Flash e 256 KB di RAM. È piccola rispetto a cloud, PC o dispositivo mobile, ma ragionevole per gli standard dei microcontrollori.
La scheda Arduino Nano 33 BLE Sense è più piccola di un bastoncino di gomma
Ci sono ragioni pratiche per cui potresti voler inserire il ML su microcontrollori, tra cui:
Funzionalità: un dispositivo intelligente deve rispondere rapidamente e localmente (indipendentemente da Internet).
Costo: puoi raggiungere il tuo obiettivo con un hardware semplice e a basso costo.
Privacy: non vuoi condividere tutti i dati del sensore esternamente.
Efficienza: fattore di forma più piccolo del dispositivo, risparmio di energia o maggiore durata della batteria.
C'è un obiettivo finale al quale stiamo puntando, ed è molto importante:
Il machine learning può rendere i microcontrollori accessibili agli sviluppatori che non hanno un background nello sviluppo integrato
Per quanto riguarda il machine learning, ci sono tecniche che puoi usare per adattare i modelli di rete neurale a dispositivi con memoria limitata come i microcontrollori. Uno dei passaggi chiave è la
quantizzazione dei pesi
da virgola mobile a numeri interi a 8 bit. Ciò ha anche l'effetto di velocizzare il calcolo dell'inferenza e di renderla più applicabile ai dispositivi con frequenza di clock inferiore.
Il TinyML è un campo emergente e c'è ancora del lavoro da fare, ma l'aspetto entusiasmante è che c'è un universo di applicazioni ancora inesplorato. Miliardi di microcontrollori combinati con tutti i tipi di sensori in tutti i tipi di luoghi che possono portare ad alcune applicazioni TinyML creative e preziose per il futuro.
Cosa ti serve per iniziare
Una scheda
Arduino Nano 33 BLE Sense
Un cavo Micro USB per collegare la scheda Arduino al computer desktop
Per programmare la scheda, puoi usare l'
Arduino Web Editor
o installare l'
Arduino IDE
. Ti forniremo maggiori dettagli su come configurarli nella sezione seguente
Arduino Nano 33 BLE Sense ha una varietà di sensori integrati che forniscono un enorme potenziale per alcune fantastiche applicazioni TinyML:
Voce: microfono digitale
Movimento: IMU a 9 assi (accelerometro, giroscopio, magnetometro)
Ambientale: temperatura, umidità e pressione
Luce: luminosità, colore e prossimità degli oggetti
A differenza del classico Arduino Uno, la scheda combina un microcontrollore con sensori integrati, il che significa che puoi gestire molti casi d'uso senza hardware o cablaggio aggiuntivi. La scheda è inoltre abbastanza piccola da poter essere utilizzata in applicazioni finali come gli indossabili. Come suggerisce il nome, ha connettività Bluetooth LE in modo da poter inviare dati (o risultati di inferenza) a un laptop, a un'app per dispositivi mobili o ad altre schede e periferiche BLE.
Suggerimento: sensori su una chiavetta USB
Il collegamento della scheda BLE Sense tramite USB è un modo semplice per acquisire dati e aggiungere più sensori a computer a scheda singola senza la necessità di cavi o hardware aggiuntivi, una bella aggiunta, ad esempio, a un Raspberry Pi.
Esempi di TensorFlow Lite per microcontrollori
Gli esempi di inferenza per TensorFlow Lite per i microcontrollori sono ora inclusi e disponibili nell'Arduino Library Manager, quindi puoi integrarli ed eseguirli su Arduino in pochi clic. In questa sezione ti mostreremo come eseguirli. Gli esempi sono:
micro_speech: riconoscimento vocale tramite il microfono integrato
magic_wand: riconoscimento gestuale utilizzando l'IMU integrata
person_detection: rilevamento delle persone tramite una videocamera ArduCam esterna
Per ulteriori informazioni sugli esempi, puoi dare un'occhiata al sorgente nel
Repository TensorFlow
. I modelli in questi esempi sono stati precedentemente addestrati. I tutorial seguenti mostrano come effettuare il deployment ed eseguirli su un Arduino. Nella prossima sezione parleremo dell'addestramento.
Come eseguire gli esempi usando il web editor Arduino Create
Dopo aver collegato Arduino Nano 33 BLE Sense al computer desktop con un cavo USB, sarà possibile compilare ed eseguire i seguenti esempi di TensorFlow sulla scheda utilizzando il web editor
Arduino Create
:
Compilazione di un esempio dalla libreria Arduino_TensorFlowLite
Concentriamoci sull'esempio di riconoscimento vocale: micro_speech
Uno dei primi passaggi con una scheda Arduino è far lampeggiare il LED. Qui, lo faremo usando TensorFlow Lite Micro per riconoscere le parole chiave vocali. Ha un semplice vocabolario con "sì" e "no". Ricorda che questo modello viene eseguito localmente su un microcontrollore con solo 256 KB di RAM, quindi non aspettarti l'accuratezza degli "assistenti vocali" di livello commerciale: non ha una connessione a Internet e ha 2000 volte di meno di RAM locale disponibile.
La scheda può anche essere alimentata a batteria. Poiché Arduino può essere collegato a motori, attuatori e altro, è possibile lavorare anche a progetti a comando vocale.
Esecuzione dell'esempio micro_speech
Come eseguire gli esempi utilizzando l'IDE di Arduino
In alternativa, puoi provare gli stessi esempi di inferenza usando l'applicazione IDE di Arduino.
Innanzitutto, segui le istruzioni nella sezione successiva
Configurazione dell'IDE di Arduino.
Nell'IDE di Arduino, vedrai gli esempi disponibili nel menu
File > Examples
>
Arduino_TensorFlowLite
in ArduinoIDE.
Seleziona un esempio e lo sketch si aprirà. Per compilare, caricare ed eseguire gli esempi sulla scheda, fai clic sull'icona della freccia:
Per gli utenti esperti che preferiscono una riga di comando, esiste anche
arduino-cli
.
Addestramento di un modello Micro TensorFlow Lite per Arduino
Classificazione dei gesti su Arduino BLE 33 Nano Sense, output come Emoji
Successivamente, utilizzeremo il ML per consentire alla scheda Arduino di riconoscere i gesti. Acquisiremo i dati di movimento dalla scheda Arduino Nano 33 BLE Sense, li importeremo in TensorFlow per addestrare un modello ed eseguiremo il deployment del classificatore risultante sulla scheda.
L'idea per questo tutorial è basata sul fantastico
Play Street Fighter di Charlie Gerard con movimenti del corpo usando Arduino e Tensorflow.js
.
Nell'esempio di Charlie, la scheda trasmette in streaming tutti i dati dei sensori dall'Arduino su un'altra macchina che esegue la classificazione dei gesti in Tensorflow.js. Partiamo da questo esempio e lo rendiamo "TinyML", eseguendo la classificazione dei gesti sulla scheda Arduino stessa. Questo è reso più semplice nel nostro caso poiché la scheda Arduino Nano 33 BLE Sense che stiamo utilizzando ha un processore Arm Cortex-M4 più potente e una IMU integrata.
Abbiamo adattato il tutorial seguente, quindi non è necessario alcun hardware aggiuntivo: il campionamento inizia rilevando il movimento della scheda. La versione originale del tutorial aggiunge una breadboard e un pulsante hardware da premere per attivare il campionamento. Se vuoi utilizzare un hardware di piccole dimensioni, puoi seguire invece quella
versione
.
Configurazione dell'IDE di Arduino
Seguendo i passaggi seguenti, configura l'applicazione IDE di Arduino utilizzata per caricare i modelli di inferenza sulla scheda e scaricare i dati di addestramento da essa nella sezione successiva. Ci sono alcuni passaggi in più rispetto all'utilizzo del web editor Arduino Create, perché dovremo scaricare e installare la scheda e le librerie specifiche nell'IDE di Arduino.
Scarica e installa l'IDE di Arduino da
https://arduino.cc/downloads
Apri l'applicazione Arduino che hai appena installato
Nel menu IDE di Arduino seleziona
Tools > Board > Boards Manager…
Cerca "Nano BLE" e premi Install sulla scheda
L'installazione richiederà alcuni minuti
Al termine, chiudi la finestra Boards Manager
Ora vai al Library Manager
Tools > Manage Libraries…
Cerca e installa la libreria
Arduino_TensorFlowLite
Quindi cerca e installa la libreria
Arduino_LSM9DS1
:
Infine, collega il cavo micro USB alla scheda e al computer
Seleziona la scheda
Tools > Board > Arduino Nano 33 BLE
Seleziona la porta
Tools > Port > COM5 (Arduino Nano 33 BLE)
Il nome della porta effettiva potrebbe essere diverso sul computer
Se hai bisogno d'aiuto, sono disponibili guide
introduttive
e per la
risoluzione dei problemi
più dettagliate sul sito Arduino.
Streaming dei dati dei sensori dalla scheda Arduino
Innanzitutto, dobbiamo acquisire alcuni dati di addestramento. Puoi acquisire i log dei dati dei sensori dalla scheda Arduino tramite lo stesso cavo USB utilizzato per programmare la scheda con il tuo laptop o PC.
Le schede Arduino eseguono piccole applicazioni (chiamate anche
sketch)
compilate dal codice sorgente di Arduino in formato
.ino
e programmate sulla scheda utilizzando l'IDE Arduino o Arduino Create.
Useremo uno sketch pre-realizzato
IMU_Capture.ino
con cui è possibile:
Monitorare l'accelerometro e il giroscopio della scheda
Attivare una finestra di esempio per il rilevamento di un'accelerazione lineare significativa della scheda
Campionare per un secondo a 119 Hz, restituendo dati in formato CSV su USB
Tornare indietro e monitorare il gesto successivo
I sensori che scegliamo di leggere dalla scheda, la frequenza di campionamento, la soglia di trigger e se trasmettiamo l'output di dati come CSV, JSON, binario o altri formati sono tutti elementi personalizzabili nello sketch in esecuzione su Arduino. Esiste anche la possibilità di eseguire la preelaborazione e il filtraggio del segnale sul dispositivo prima che i dati vengano inviati al log. Analizzeremo questo aspetto in un altro blog. Per ora, puoi semplicemente caricare lo sketch e passare al campionamento.
Per programmare la scheda con questo sketch nell'IDE di Arduino:
Scarica
IMU_Capture.ino
e aprilo nell'IDE di Arduino
Compilalo e caricalo sulla scheda con
Sketch > Upload
Visualizzazione del log dei dati dei sensori in tempo reale dalla scheda Arduino
Fatto ciò, possiamo visualizzare i dati provenienti dalla scheda. Non stiamo ancora acquisendo dati: questo passaggio serve solo per darti un'idea di come viene attivata l'acquisizione dei dati dei sensori e della durata di una finestra di campionamento. Ciò tornerà utile quando eseguiremo l'acquisizione dei campioni di addestramento.
Nell'IDE di Arduino, apri il Serial Plotter
Tools > Serial Plotter
Se viene visualizzato un errore che indica la non disponibilità della scheda, seleziona nuovamente la porta:
Tools > Port > nome porta (Arduino Nano 33 BLE)
Prendi la scheda e fai pratica con i gesti del pugno e della flessione
Il campionamento durerà un secondo, quindi partirà l'attesa per il gesto successivo
Dovresti vedere un grafico in tempo reale dell'acquisizione dei dati dei sensori (vedi GIF sotto)
Arduino IDE Serial Plotter mostrerà un grafico in tempo reale dell'output dei dati CSV dalla tua scheda
Al termine, assicurati di chiudere la finestra del Serial Plotter: questa operazione è importante poiché, se non lo fai, il passaggio successivo non funzionerà.
Acquisizione dei dati di addestramento gestuale
Per acquisire dati come un log CSV da caricare su TensorFlow, puoi utilizzare
Arduino IDE > Tools > Serial Monitor
per visualizzare i dati ed esportarli sul computer desktop:
Ripristina la scheda premendo il piccolo pulsante bianco in alto
Tieni la scheda in una mano (se la prendi successivamente, si attiverà il campionamento)
Nell'IDE di Arduino, apri il Serial Monitor
Tools > Serial Monitor
Se viene visualizzato un errore che indica la non disponibilità della scheda, seleziona nuovamente la porta:
Tools > Port > nome porta (Arduino Nano 33 BLE)
Fai il gesto di tirare un pugno con la scheda in mano (fai attenzione mentre lo fai!)
Mima un pugno verso l'esterno abbastanza rapidamente da attivare l'acquisizione
Ritorna lentamente in una posizione neutra per non attivare nuovamente l'acquisizione
Ripeti il passaggio di acquisizione del gesto 10 o più volte per raccogliere più dati
Copia e incolla i dati dalla Serial Console nel nuovo file di testo chiamato punch.csv
Cancella l'output della finestra della console e ripeti tutti i passaggi precedenti, questa volta con un gesto di flessione in un file chiamato flex.csv
Fai la flessione verso l'interno abbastanza rapidamente da attivare la cattura e torna ogni volta alla posizione neutra lentamente
La prima riga dei tuoi due file CSV deve contenere i campi aX, aY, aZ, gX, gY, gZ
Suggerimento per Linux:
se preferisci puoi reindirizzare l'output dei log dei sensori da Arduino direttamente a un file .csv sulla riga di comando. Con le finestre Serial Plotter/Serial Monitor chiuse, usa:
$ cat /dev/cu.usbmodem[nnnnn] > sensorlog.csv
Addestramento in TensorFlow
Useremo
Google Colab
per addestrare il nostro modello di machine learning utilizzando i dati raccolti dalla scheda Arduino nella sezione precedente. Colab fornisce un notebook Jupyter che ci consente di eseguire l'addestramento TensorFlow in un browser web.
Colab di addestramento per riconoscimento gestuale Arduino
Il colab ti guiderà nei passaggi seguenti:
Configurazione dell'ambiente Python
Caricamento dei dati punch.csv e flex.csv
Analisi e preparazione dei dati
Creazione e addestramento del modello
Converti il modello addestrato in TensorFlow Lite
Codifica il modello in un file di intestazione Arduino
Il passaggio finale del colab è generare il file model.h da scaricare e includere nel nostro progetto del classificatore di gesti IDE Arduino nella sezione successiva:
Apriamo il notebook in Colab e diamo un'occhiata ai passaggi nelle celle:
arduino_tinyml_workshop.ipynb
Classificazione dei dati IMU
Successivamente utilizzeremo il file model.h appena addestrato e scaricato da Colab nella sezione precedente nel nostro progetto IDE di Arduino:
Apri
IMU_Classifier.ino
nell'IDE di Arduino.
Crea una nuova tab nell'IDE. Quando chiesto, chiamala model.h
3. Apri la tab model.h e incolla la versione scaricata da Colab
4. Carica lo sketch:
Sketch > Upload
5. Apri il Serial Monitor:
Tools > Serial Monitor
6. Esegui alcuni gesti
7. L'affidabilità di ciascun gesto verrà stampata sul Serial Monitor (0 = scarsa affidabilità, 1 = alta affidabilità)
Congratulazioni, hai appena addestrato la tua prima applicazione ML per Arduino!
Per divertirti ancora di più, l'esempio
Emoji_Button.ino
mostra come creare una tastiera USB che stampa un personaggio emoji in Linux e macOS. Prova a combinare l'esempio
Emoji_Button.ino
con lo sketch
IMU_Classifier.ino
per creare una tastiera emoji controllata da gesti.
Conclusioni
È un momento emozionante e abbiamo molto da imparare ed esplorare nell'universo del TinyML. Speriamo che questo blog ti abbia dato un'idea del potenziale e ti abbia fornito un punto di partenza per iniziare ad applicarlo nei tuoi progetti. Facci sapere cosa creerai e
condividilo
con la community di Arduino.
Per una panoramica completa su TinyML e sulle applicazioni di esempio riportate in questo articolo, ti raccomandiamo il nuovo libro O'Reilly di Pete Warden e Daniel Situnayake "TinyML: Machine Learning with TensorFlow on Arduino and Ultra-Low Power Microcontrollers"
Etichette
Android
Firebase
machine learning
Google Cloud Platform
GDL
Eventi
Google Developers Live
Google Play
TensorFlow
App
Chrome
Cloud
api
GDLItalia
GDE
GDG
Google Assistant
iOS
Kotlin
Actions on Google
Deep Learning
AppEngine
AMP
BigQuery
Cloud Functions
Flutter
Android Studio
Google Developers Expert
Università
Google AppEngine
JavaScript
AI
Android Wear
GAE
Google Play Store
HTML5
Maps
security
Android App Development
AngularJS
IoT
Kubernetes
Annunci
Cloud Firestore
Cloud Machine Learning
Google I/O
Polymer
Android Things
Community
DevTools
Google App Engine
intelligenza artificiale
Entrepreneurship
Firebase Analytics
GSoC
Games
Google Cast
ML
open source
Crashlytics
Dart
Diversity
Drive
Google Data Studio
Google Play Games
TensorFlow Lite
Android Developers
Android O
Cloud Spanner
Cloud TPU
Compute Engine
DevFest
Google Compute Engine
Google Developers
Material Design
Mobile
PWA
Python
Startup
AIY Project
ARCore
Android Jetpack
AndroidDev
Androidq
Apps Script
Artificial Intelligence
Augmented Reality
Firebase Cloud Messaging
Google Cloud
Google Maps
Gsuite
IO19
ML kit
Research
VR
coding
unity
#io19
AR
Android Dev Summit
Android Developer
Android Q
Cardboard
Cloud AI
Coral
Developers
Dialogflow
Firebase Realtime Database
Gmail
Google AI
Google Cloud Messaging
Google ContainerEngine
Google Play Console
Kotlin Coroutines
NLP
Programming
Responsive Design
TensorFlowjs
Testing
WTM
Women
beacons
cloud storage
developer
node JS
student programs
women techmakers
API Cloud Vision
Add-ons
Android P
AndroidDevStory
Animation
AutoML
Brillo
Classroom
DSC
Database
Developer Student Clubs
Edge TPU
Fabric
Featured
Flutter Web
G Suite
GWT
GoLang
Google
Google Brain
Google Cloud Next
Google Container Engine
Google Developer Groups
Google I/O Extended
Graph
Hosting
Instant Apps
Keras
Livedata
Mobile Sites
Prediction
Privacy
Project Tango
SDK
Stackdriver
Tales
UI
Udacity
Virtual Reality
Web
Web Development
YouTube
analytics
android security
api.ai
courses
google io
indies
natural language processing
reti neurali
sign-in
young developers
2d Animation
3d
AIY
ARkit
Adversarial Learning
Alpha
Android App
Android App Developmen
Android App bundle
Android Architecture
Android Architecture Components
Android Auto
Android Automotive OS
Android Dev Summit Android Developer
Android Developer Challenge
Android Developers GooglePlayAwards
Android Development
Android Go
Android Instant App
Android Pie
Android Q Scoped Storage
Android Q audio
Android Styles
Android audio playback capture
Android codelabs
AndroidTV
AndroidX
Angular
Aogdevs
Api Design
App Development
App Distribution
Apps
Architecture
Architecture Components
Arduino
Best Practices
Betatesting
Bugs
C++
Certification
Cloud Anchors
Cloud Next
Cloud Run
Cloud Service Platform
Cloud Shell
Cloud Study Jam
Coached Conversational Preference Elicitation
Commerce
Community Connector
Computer Science
Consistency
Containers
Converge
Conversation Design
Crash Reporting
DLS Design
Dagger
Data Science
Databases
Dependency Injection
Design
Developer Communities
Developer Community
Developer Culture
Developer Story
Developing Media Apps
Development
Eager
Edge TPU Dev Board
Education
Emulatore Android
Error Message
Eslint
Europe
Firebase Extensions
Firebase Summit 2019
Firebasehosting
Flutter 1.5
Flutter at IO
FlutterDark
GCE
GDD
Game Development
Gboard
Gesture Navigation
Glass
Go
Google AI Quantum
Google App Script
Google Cloud Functions
Google Cloud billing
Google Coral
Google Developer Days
Google Home Hub
Google IOS Android
Google Identity Platform
Google Launchpad
Google Lens
Google Now
Google Photos
Google Play Devs
Google Play Indie Games Festival
Google Play Instant
Google Plus
Google codelabs
Google+
GoogleDevWeekly
GoogleLaunchpad
GooglePlay
Graphics
Healthcare
I/O
IO
IO19 Flutter
In-app Billing
Indie Games
Indie Games Festival
Indie games showcase
Indie showcase
Ingress
Instant Games
Issues
Java
Jetpack
Knative
Kotlin Beginners
Kotlin Everywhere
Kotlin codelabs
Lighthouse
Live Caption
Live Streaming
Localization
Location
M-Theory
Mondaygram
Monetization
NYT
NativeScript
Navigation
Neural Graph Learning
Neural Structured
Nodejs
OS
OS Updates
Olivex
One Time Codes
Online Education
PHA
Performance Monitoring
Policy
Posenet
Project Mainline
Project Treble
Quantum Computing Theory
Reactive Programming
Regression
Remote Config
Resonance Audio
Room
Scoped Storage
Semantics
Semi Supervised Learning
Serverless
Sms Retriever Api
Sms Verification
Speech Recognition
Swift
Tensorflow Core
Tensorflow Hub
Test Lab
Text
Tokenizer
Tpu
Transformers
UX
UX Design
UX Research
Universal Sentence Encoder
Unsupervised Data Augmentation
Unsupervised Learning
User Experience
Viewmodel
Voice
WWW
Wear OS
WebAssembly
Widget
Women in Tech
WomenTechmakers
android kotlin
app stability
assistant
audio recording
augmented faces
authsub
best practices and updates
billing
botnet
business
c++ games
cancer
chatbot
chrome privacy
codelab
codelabs
competition
daydream
designer
dominio .dev
error handling
event
firebase games
firebase gdc
firebase hosting
firebase unity
game center authentication
game testing
games authentication
gdc
google summer of code
googledevelopers
grow
hashcode
indie
indie developers
internship
kids
machine intelligence
machine learning accelerator
maker
multi-platform
nearby
oauth
openid
performance
persistent AR
privacy sandbox
prizes
prototype
purchase flows
queries
realtime
responsible AI
security rules
showcase
solutions challenge
startup africa roadtrip
startup times
students
summer of code
unity crashlytics
verify apps
win
Archivio Blog
2020
feb
gen
2019
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2018
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2017
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2016
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2015
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2014
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2013
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
Feed
Follow @GoogleDevsItaly