Pubblicato da André Susano Pinto (Technical Lead di TensorFlow Hub) e Clemens Mewald (Product Manager)
Nel post precedente abbiamo annunciato TensorFlow Hub, una piattaforma per pubblicare, scoprire e riutilizzare parti di moduli di machine learning in TensorFlow. Un aspetto importante di questa piattaforma è l'esperienza Web che offre, poiché consente agli sviluppatori di scoprire i moduli TensorFlow in base ai loro casi d'uso. Abbiamo lanciato recentemente una nuova esperienza Web per TensorFlow Hub che offre ricerca e scoperta semplificate e apre la strada verso una piattaforma multi-publisher.
TensorFlow Hub è una piattaforma per la condivisione delle parti riutilizzabili di ML e la nostra visione è fornire un metodo conveniente che consenta a ricercatori e sviluppatori di condividere il proprio lavoro con il resto della community. Il modulo Universal Sentence Encoder è un ottimo esempio di come accelerare il passaggio dalla scienza del machine learning fondamentale all'applicazione nella community più vasta degli sviluppatori. Il paper fa riferimento all'URL tfhub.dev del modulo. Quando questo URL viene copiato in un browser, reindirizza alla pagina Dettagli del modulo nella quale i publisher condividono la documentazione e un link al notebook Colab per provare il modulo. Universal Sentence Encoder è diventato uno dei moduli più popolari su TF Hub.
Come previsto, è possibile cercare e filtrare i moduli su TF Hub. L'applicabilità dei moduli di testo al tuo caso specifico dipende dai dati su cui sono stati addestrati. Nell'esempio precedente mostriamo quanto sia facile cercare i casi di incorporamento di testo e filtrarli in base a Language:Spanish per trovare il modulo NNLM addestrato sui dati spagnoli.
Stiamo espandendo continuamente l'inventario TensorFlow Hub con i nuovi moduli sviluppati dal team Google Brain. Un'aggiunta recente è il modulo FasterRCNN addestrato su Open Images v4. Questo modulo può essere caricato e utilizzato per eseguire il rilevamento degli oggetti con una singola riga di codice:
detector = hub.Module( “https://tfhub.dev/google/faster_rcnn/openimages_v4/inception_resnet_v2/1" )
In contemporanea al modulo abbiamo pubblicato un notebook Colab che permette di caricarne e ispezionarne gli output. Di seguito è riportato l'esempio di un'immagine di unsplash.com e degli oggetti rilevati.
Il notebook Colab offre una guida al download del modulo e alla sua applicazione, il tutto in pochi minuti.
Altre aggiunte recenti a TensorFlow Hub includono:
Oltre a consumare moduli pubblicati su https://tfhub.dev, le librerie TensorFlow Hub consentono anche di pubblicare moduli e utilizzare archivi privati. Ciò permette ai team di condividere i moduli e trarre vantaggio del lavoro reciproco.
Invece di fare riferimento ai moduli tramite l'URL tfhub.dev, puoi utilizzare un percorso di filesystem:
m = hub.Module(“/tmp/text-embedding”)embeddings = m(sentences)
Per creare questi incorporamenti personalizzati, segui il nostro tutorial Creating a module.
Vai a vedere https://tfhub.dev per sfruttare la nostra nuova esperienza web e https://www.tensorflow.org/hub/ per tenerti aggiornato sugli ultimi documenti API e guide. Se scopri un bug, segnalacelo su GitHub. Per restare in contatto con noi, aggiungi il progetto GitHub ai tuoi preferiti.
Ringraziamenti
Desideriamo ringraziare Bo Fu, Andrew Gasparovic, Jiaqi Guo, Jeremiah Harmsen, Joshua Horowitz, Zicheng Huo, Elizabeth Kemp, Noé Lutz, Till Pieper, Graham Smith, Sijie Wang e Sitong Zhou.