Presentazione di TensorFlow Research Cloud
14 giugno 2017
I ricercatori necessitano di enormi risorse computazionali per addestrare i modelli di machine learning (ML) che hanno portato a grandi passi avanti nell'imaging medico, nella traduzione automatica neurale, nei giochi e in molti altri settori. Crediamo che capacità computazionali significativamente maggiori permetteranno ai ricercatori di inventare nuove tipologie di modelli di ML che saranno ancora più accurati e utili.
Per velocizzare il passo della ricerca sull’open machine learning, presentiamo il TensorFlow Research Cloud (TFRC), un cluster di 1.000 Cloud TPU che sarà disponibile gratuitamente allo scopo di sostenere una vasta gamma di progetti di ricerca computazionali intensivi che altrimenti non sarebbero possibili.
Il TensorFlow Research Cloud offre ai ricercatori i seguenti vantaggi:
- Accesso ai nuovi Cloud TPU di Google che accelerano l’addestramento e anche l’inferenza
- Fino a 180 teraflop di performance a virgola mobile per ogni Cloud TPU
- 64 GB di memoria a banda ultra elevata per ogni Cloud TPU
- Interfacce di programmazione familiari TensorFlow
Il programma TensorFlow Research Cloud non si limita soltanto al mondo accademico: siamo consapevoli del fatto che persone dalle appartenenze, competenze e ruoli più svariati offrano contributi importanti alla ricerca sul machine learning, pertanto incoraggiamo in particolare chi ha un background non tradizionale a inoltrare la domanda. Sarà garantito l’accesso a un numero selezionato di persone per un lasso di tempo computazionale limitato, e i ricercatori potranno tranquillamente fare domanda più volte con diversi progetti.
Poiché l’obiettivo principale di TensorFlow Research Cloud è favorire tutta la community dei ricercatori dell’open machine learning, i candidati prescelti dovranno fare quanto segue:
- Condividere con il mondo la propria ricerca sostenuta da TFRC attraverso pubblicazioni recensite da altri pari, codice open source, articoli di blog e altri media aperti.
- Condividere con Google i loro feedback concreti e costruttivi per aiutarci a migliorare il programma TFRC e la sottostante piattaforma Cloud TPU nel corso del tempo.
- Immaginare un futuro nel quale l’accelerazione ML sia molto presente e sviluppare nuove tipologie di modelli di machine learning in previsione di tale futuro.
- Accelerare l’addestramento di modelli di ML privati; i modelli che richiedono settimane per l’addestramento su un altro hardware possono essere addestrati in pochi giorni o perfino ore sui Cloud TPU.
- Accelerare l’elaborazione batch di set di dati su scala industriale: immagini, video, audio, testo non strutturato, dati strutturati ecc.
- Elaborare richieste live in produzione utilizzando modelli di ML più grandi e complessi che mai.