La correttezza è uno dei nostri principi guida per quanto riguarda l'IA ed è un argomento di cui parliamo con i clienti Cloud che decidono di adottare il ML nelle loro attività. Kubeflow Pipelines consente di trarre vantaggio dalle librerie open source TensorFlow Extended (TFX) di Google che affrontano problemi di produzione ML, come l'analisi del modello, la convalida dei dati, l'obliquità del training-serving, la deriva dei dati e altro ancora. Ciò migliora l'accuratezza, la pertinenza e l'equità dei risultati delle aziende. Puoi iniziare con Kubeflow Pipelines su GitHub.
Continuiamo inoltre ad ampliare le funzionalità degli elementi costitutivi di IA per renderli ancora più utili alle aziende, compresa la versione beta di tre funzioni della nostra API Video Cloud che punta a risolvere le comuni problematiche delle aziende che lavorano molto con i video. Il rilevamento del testo ora riesce a determinare dove e quando il testo appare in un video, rendendo quest'ultimo più facile da trovare e supporta oltre 50 lingue. Il tracciamento degli oggetti può identificare più di 500 classi di oggetti in un video. La trascrizione vocale per video può trascrivere l'audio, rendendo possibile la creazione semplificata di didascalie e sottotitoli nonché una maggiore ricercabilità dei suoi contenuti. Per saperne di più sugli elementi costitutivi dell'IA, vai sul nostro sito web.
Rendere l'intelligenza artificiale più veloce con gli aggiornamenti Cloud TPU
Stiamo abbassando continuamente le barriere computazioni di IA grazie alle nostre Tensor Processing Unit (TPU). Questi chip ASIC personalizzati, progettati da Google per i carichi di lavoro di machine learning, accelerano notevolmente le attività ML e sono facilmente accessibili tramite la cloud.
A luglio abbiamo annunciato che le nostre TPU di seconda generazione sono generalmente disponibili e alla portata di qualsiasi utente Cloud, inclusi gli utenti di livello gratuito. A ottobre abbiamo annunciato la versione beta delle Cloud TPU, raffreddate a liquido, di terza generazione e abbiamo reso PyTorch disponibile su Google Cloud, e presto sarà disponibile per l'uso sulle TPU. Recentemente abbiamo anche annunciato i prezzi dei nostri V2 TPU Pod. Questi aggiornamenti mirano a rendere il machine learning ad alta capacità computazionale più veloce e accessibile alle aziende di tutto il mondo. Per saperne di più sulle TPU, vai al nostro sito web.
Prossimamente
Negli ultimi mesi molti dei nostri clienti ci hanno riferito di aver utilizzato con successo l'IA per risolvere particolari problematiche aziendali.
Meredith Corporation, una società di media, utilizza il machine learning per automatizzare la classificazione dei contenuti, applicando una tassonomia universale personalizzata con Cloud AutoML e Natural Language. Il machine learning consente di rendere la classificazione dei contenuti più ripetibile e scalabile, risparmiando tempo e ottimizzando l'esperienza dei lettori.
"Alla Meredith Corporation, ci concentriamo sulla creazione di contenuti interessanti su piattaforme e in fasi di vita diverse per marchi come PEOPLE, Better Homes & Gardens, Martha Stewart Living, Allrecipes e Food & Wine", afferma Alysia Borsa, Chief Marketing & Data Officer, Meredith Corporation. "Utilizzando i servizi di Natural language e AutoML per applicare questa tassonomia universale personalizzata ai nostri contenuti, siamo in grado di identificare e rispondere meglio alle tendenze emergenti, abilitare un targeting dettagliato solido e fornire al nostro pubblico esperienze più pertinenti e coinvolgenti".
La Emory University combina i dati clinici, il machine learning e l'infrastruttura scalabile di GCP per sviluppare un motore di previsione della sepsi che utilizza l'analisi in tempo reale con lo scopo di fornire una migliore assistenza ai pazienti a rischio e tenere sotto controllo i costi medici al tempo stesso.
"Con la sepsi, la diagnosi precoce è fondamentale", afferma il dott. Ashish Sharma, ricercatore del dipartimento di informatica biomedica, facoltà di medicina dell'Università Emory. "Convertendo il nostro algoritmo di previsione della sepsi basato su TensorFlow in un'app che eseguiamo sul Google App Engine, siamo in grado di fornire informazioni nel lasso di tempo in cui i medici possono ancora effettuare interventi risolutivi per un paziente. Ciò che conta di più è migliorare i risultati medici dei pazienti nelle unità di terapia intensiva e il machine learning è fondamentale per ottimizzare l'assistenza ai malati".
Geotab utilizza BigQuery ML e BigQuery GIS per prevedere potenziali aree di guida pericolose a Chicago, promuovere il processo decisionale guidato dai dati e abilitare iniziative "smart city".
"Geotab fornisce approfondimenti basati sui dati dei veicoli della flotta commerciale in qualsiasi continente", afferma Mike Branch, Vice Presidente Data & Analytics, Geotab. "Sfruttando il machine learning e BigQuery, oltre alle altre informazioni di smart city, siamo stati in grado di sviluppare una soluzione per i clienti che prevede le aree di guida particolarmente pericolose in una città, in base al tempo e al flusso del traffico. Siamo molto contenti di adoperare la tecnologia machine learning di Google Cloud per creare soluzioni migliori per i nostri clienti e la community".
Siamo anche felici di vedere la continua crescita della community di Kubeflow. Organizzazioni come NVIDIA, Cisco e Intel sono solo alcuni dei contributori a questo progetto open source e collaborano con noi per adottare Kubeflow Pipelines. NVIDIA sta già integrando RAPIDS, una nuova suite di librerie open source di data science in Kubeflow. La libreria RAPIDS sfrutta le GPU per fornire un'accelerazione superiore di un ordine di grandezza per la pre-elaborazione dei dati e il machine learning, integrando perfettamente Kubeflow.
"Il machine learning sta rapidamente emergendo come un aspetto indispensabile della trasformazione digitale che coinvolge i nostri clienti. Inoltre, il ML sta guadagnando sempre più terreno nell'ambito dell'IT aziendale e dei team di ingegneria tradizionali, che cercano di implementare architetture al servizio dei data scientist nelle loro linee di business. Realizzare il potenziale del ML negli ambienti aziendali richiede una drastica semplificazione del ciclo di vita dell'intera soluzione", ha affermato Kaustubh Das, vicepresidente, responsabile della gestione dei prodotti del data center di Cisco. "I contributi significativi di Cisco a Kubeflow mirano a semplificare la gestione del ciclo di vita AI/ML ibrido/multi cloud. Cisco è lieta di vedere emergere Kubeflow Pipelines, che promette una radicale semplificazione dei flussi di lavoro ML, fondamentali per l'adozione mainstream. Non vediamo l'ora di offrire i vantaggi di questa tecnologia in concomitanza con il nostro avanzatissimo portafoglio di prodotti AI/ML ai clienti".
"Intel e Google hanno instaurato da anni una collaborazione ingegneristica nell'ambito dei diversi carichi di lavoro cloud e framework di deep learning e dell'intelligenza artificiale su architettura Intel. L'ultimo esempio di questa lunga collaborazione tecnica è il lavoro su Kubeflow Pipelines", afferma Raejeanne Skillern, vicepresidente del Data Center Group, General Manager del Cloud Service Provider Business di Intel. "In particolare, stiamo aggiungendo alcuni componenti in Kubeflow Pipelines che automatizzano l'ottimizzazione del modello, eseguendo le previsioni e l'implementazione dei server di model serving con il toolkit OpenVINO per portare l'ottimizzazione dell'inferenza più avanzata alle applicazioni IA su hardware Intel. Contiamo su una collaborazione continuativa con Google in questo progetto per ottenere prestazioni avanzate, efficienza e facilità di implementazione su vasta scala per i clienti finali".
Continueremo a lavorare a stretto contatto con i nostri clienti e partner per comprendere le loro problematiche aziendali e come applicare l'IA per risolverle. Per ulteriori informazioni sull'IA e il machine learning in Google Cloud, visita il nostro sito Web.