Pubblicato da Mary Chen, Product Marketing Manager, e Ralfi Nahmias, Product Manager, Dialogflow
In occasione di Google Cloud Next '18, Dialogflow ha presentato diverse nuove funzionalità beta per espandere le capacità di conversazione per l'assistenza clienti e i contact center. Diamo un'occhiata a come tre di queste funzionalità possono essere utilizzate con l'Assistente Google per migliorare l'esperienza di assistenza ai clienti della tua Action.
Creare Action conversazionali per casi d'uso con molti contenuti, come domande frequenti o risposte di knowledge base, è difficile. Questo contenuto spesso è denso e non strutturato e ciò rende l'accurata modellazione dell'intento laboriosa e soggetta a errori. La funzionalità Knowledge Connectors di Dialogflow semplifica il processo di sviluppo poiché comprende e cura automaticamente le domande e le risposte dei contenuti forniti. È in grado di aggiungere migliaia di risposte estratte direttamente alla tua Action conversazionale creata con Dialogflow, dandoti più tempo per dedicarti a ciò che desideri e creando al tempo stesso esperienze utente ricche e coinvolgenti.
Prova Knowledge Connectors in questo esempio di un negozio di biciclette
Quando gli utenti interagiscono con l'Assistente Google tramite il testo, è normale e naturale che facciano errori ortografici e grammaticali. In questo caso le Action potrebbero non comprendere l'intento dell'utente, restituendo un'esperienza di follow-up poco soddisfacente. Con Automatic Spelling Correction di Dialogflow, le Action create con Dialogflow possono correggere automaticamente gli errori di ortografia, migliorando in modo significativo la corrispondenza tra intento ed entità. Questa funzionalità sfrutta una tecnologia simile a quella utilizzata nella Ricerca Google e in altri prodotti Google.
Abilitare la Automatic Spelling Correction per migliorare la corrispondenza tra intento ed entità
Ora puoi utilizzare la tua Action come agente di telefonia virtuale grazie alla nuova integrazione Phone Gateway di Dialogflow. Basta assegnare un numero di telefono funzionante all'Action creata con Dialogflow per iniziare a ricevere subito chiamate. Phone Gateway consente di implementare facilmente agenti virtuali senza bisogno di tutti gli altri servizi necessari per la creazione di applicazioni telefoniche.
Configurare Phone Gateway in 3 semplici passaggi
Knowledge Connectors, Automatic Spelling Correction e Phone Gateway sono funzionalità gratuite per gli agenti della versione Standard con limiti predefiniti. Per ulteriori opzioni di tipo aziendale, vai qui.
Non vediamo l'ora di scoprire le Action che creerai con queste nuove funzionalità di Dialogflow. Prova le funzionalità con la nuova Action Cloud Next FAQ che abbiamo realizzato.
CREATE MODEL dataset.model_name OPTIONS(model_type=’linear_reg’, input_label_cols=[‘input_label’]) AS SELECT * FROM input_table;
* Ad esempio un vettore gradiente può essere calcolato utilizzando gli operatori SUM e GROUP BY e i carichi di un modello possono essere aggiornati utilizzando INNER JOIN.↩
Pubblicato da Saba Zaidi, Senior Interaction Designer, Assistente Google
All'inizio di quest'anno abbiamo annunciato gli Smart Display, una nuova categoria di dispositivi con l'Assistente Google incorporato, che arricchisce le esperienze vocali con una visualizzazione totalmente immersiva. Questi nuovi dispositivi ad alto contenuto visivo possono facilitare la trasmissione di informazioni complesse, suggerire Action, supportare transazioni e rappresentare il tuo brand. Ora gli Smart Display si possono acquistare nei principali rivenditori statunitensi, sia nei negozi che online.
Interagire attraverso la voce è facile e veloce, perché parlare è naturale e il linguaggio non ci limita a percorsi predefiniti, a differenza di tradizionali interfacce visive. Tuttavia nelle interfacce integrate solo con audio può essere difficile comunicare informazioni dettagliate come elenchi o tabelle e quasi impossibile rappresentare contenuti complessi come immagini, grafici o l'identità visiva del brand. Gli Smart Display consentono di creare Action per l'Assistente in grado di rispondere a conversazioni naturali nonché di visualizzare informazioni e rappresentare il tuo brand in modo coinvolgente e visivo.
Per i consumatori ora sono disponibili le risposte rich ottimizzate per Smart Display. Con questo tipo di risposte gli sviluppatori possono utilizzare schede di base, elenchi, tabelle, caroselli e chip di suggerimento, che offrono una serie di interazioni visive per le Action, con molti altri componenti visivi in arrivo prossimamente. Possono anche creare temi personalizzati per rendere sempre più particolare l'aspetto della tua Action.
Se hai già creato un'Action vocale incentrata sull'Assistente Google, non preoccuparti, funzionerà automaticamente sugli Smart Display. Tuttavia, ti consigliamo vivamente di aggiungere le risposte rich e i temi personalizzati per rendere un'Action ancora più visivamente coinvolgente e utile ai tuoi utenti su Smart Display. Ecco alcuni consigli per iniziare.
Gli Smart Display offrono diversi formati visivi per mostrare le informazioni e semplificare l'input dell'utente. Un carosello di immagini, un elenco o una tabella può aiutare gli utenti a vagliare velocemente le informazioni e a interagire con un semplice tocco o scorrimento.
Ad esempio, considera un messaggio lungo a voce come: "Benvenuto in National Anthems! Puoi sentire gli inni nazionali di 20 paesi diversi, tra cui Stati Uniti, Canada e Regno Unito. Quale vuoi ascoltare?".
Invece di mostrare la trascrizione dell'intero messaggio vocale sullo schermo, il carosello delle bandiere dei paesi aiuta gli utenti a scorrere e toccare l'inno che vogliono ascoltare.
I chip di suggerimento sono un ottimo modo per evidenziare consigli, scoprire funzionalità e far progredire la conversazione sugli Smart Display.
In questo esempio i chip di suggerimento possono aiutare gli utenti a scoprire la funzionalità "sorprendimi", trovare gli inni più popolari o filtrare gli inni per regione.
Puoi sfruttare i nuovi temi personalizzati per differenziare la tua esperienza e rappresentare la personalità del tuo brand, scegliendo una voce particolare o personalizzando immagini o colori dello sfondo, lo stile del carattere o la forma delle schede in modo che corrispondano al tuo brand.
Ad esempio, un'Action come California Surf Report potrebbe essere tematizzata in modo più coinvolgente e personalizzato.
Offriamo ulteriori suggerimenti su come progettare e creare Smart Display e altri dispositivi visivi nel nostro sito di design di conversazioni e nella nostra talk di I/O sul design di Action su dispositivi diversi.
Consulta la nostra documentazione per imparare a personalizzare l'aspetto visivo delle tue Action con le risposte rich. Puoi anche testare e armeggiare con le personalizzazioni per Smart Display nel simulatore della console di Actions.
Non dimenticare che, una volta pubblicata la tua prima Action, puoi iscriverti al nostro programma della community*, ricevere l'esclusiva maglietta Assistente Google e fino a 300 $ in credito mensile con Google Cloud!
Non vediamo l’ora (davvero) di scoprire cosa riuscirai a creare! Grazie della tua partecipazione alla nostra community e, come sempre, se hai idee o richieste che vorresti condividere con il team, non esitare a intervenire nella conversazione.
*Alcuni paesi non sono ammessi al programma della community degli sviluppatori, consulta i termini e le condizioni.
Il Developer Show è stato creato per tenerti aggiornato su tutte le novità che riguardano gli sviluppatori di Google, direttamente dagli esperti.
Hai una domanda? Usa #AskDevShow per comunicarcela!
Ora puoi scaricare Android Studio 3.2 Beta. Quest'ultima versione dell'Android IDE ufficiale facilita l'onboarding di Android JetPack, dell'Anteprima degli sviluppatori Android P e del nuovo formato Android App Bundle. Include anche Emulator Snapshots ed Energy Profiler. Ulteriori dettagli e screenshot sono disponibili nel post.
Abbiamo rilasciato una libreria client per semplificare l'utilizzo di Google Cloud IoT Core nei dispositivi Android Things. Con poche righe di codice puoi connetterti facilmente al bridge IoT Core MQTT, autenticare il dispositivo, pubblicare telemetria e stato del dispositivo, iscriverti per ricevere le modifiche della configurazione, e gestire gli errori e le interruzioni di rete. Esempi del codice e un video sono disponibili nel post.
Grazie al rilascio di Rules Simulator, proteggere il tuo database Cloud Firestore ora è più semplice. Con il Simulator nella console Firebase, puoi testare le tue regole mentre le scrivi e prima di distribuirle! Screenshot e link ai documenti sono disponibili nel post.
La Flutter Release Preview 1 è già disponibile mentre finalizziamo le ultime fasi della stabilizzazione della versione 1.0. I dettagli su contributi esterni, miglioramenti apportati dal team Flutter e istruzioni per iniziare sono disponibili nel post.
Recentemente abbiamo lanciato la nuova certificazione Associate Cloud Engineer progettata per soddisfare la domanda crescente di individui con le competenze di base sul cloud necessarie a implementare applicazioni e a mantenere progetti cloud su Google Cloud Platform. Dettagli su come iscriverti all'esame e altro sono disponibili nel post.
Le Cloud TPU sono ora disponibili in due nuove regioni in Europa e in Asia, e stiamo anche introducendo prezzi con prelazione per le TPU Cloud più bassi del 70% rispetto a quelli normali. Ulteriori informazioni sulle Cloud TPU, incluso il rapporto performance per dollaro, sono disponibili nel post.
Ti piacciono questi aggiornamenti?
Salva la playlist TL;DR e iscriviti al Google Developers Channel.
Pubblicato da Tom Greenaway, Senior Partner Developer Advocate
L'anno scorso abbiamo annunciato che, dall'agosto 2018, tutte le nuove app e i nuovi giochi in Google Play avrebbero dovuto utilizzare un livello API Android recente, ossia le API di livello 26 (Android 8.0 Oreo) o superiore. Questo requisito sarà applicabile anche agli aggiornamenti per app e giochi esistenti a partire da novembre 2018.
Ogni nuova versione di Android introduce modifiche che apportano miglioramenti significativi in termini di sicurezza e prestazioni, e migliorano l'esperienza utente complessiva di Android. L'aggiornamento dei giochi al targeting delle API di ultimo livello garantisce che gli utenti possano trarre vantaggio da questi miglioramenti, consentendo comunque loro di eseguire i tuoi giochi sulle versioni precedenti di Android.
Semplici fasi successive
Modifiche significative
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" />
Fasi future
Ricorda che l'aggiornamento del livello API target è solo il primo passo: assicurati che il tuo gioco sia compatibile con i cambiamenti di comportamento tra l'attuale livello API target e le API di livello 26. Sono disponibili ulteriori indicazioni sui cambiamenti nelle versioni precedenti di Android per assisterti nel processo di migrazione. Questi cambiamenti di criteri mirano al miglioramento e al buono stato dell'ecosistema Android a favore dei nostri utenti, e dei tuoi.
Quanto ti è stato utile questo post?
★ ★ ★ ★ ★
By Michael Tyka, Artists + Machine Intelligence
Discovering and getting started with Machine Learning can be daunting. Perhaps you have a vague project idea and are looking for a place to start and adapt from. Or you’re looking for inspiration and want to get a sense of what’s possible.
Today we’re launching Seedbank, a place to discover interactive machine learning examples which you can run from your browser, no set-up required. Each example is a little seed to inspire you that you can edit, extend, and grow into your own projects and ideas, from data analysis problems to art projects.
Recently Google has been releasing many examples of Machine Learning code in the form of Colab notebooks. Colaboratory is Google’s hosted Jupyter notebook environment. Colab allows you to run the code directly through your browser using a free GPU provided by Google, with no setup required.
Examples include the new getting started experience on tensorflow.org, Machine Learning Crash Course, research articles on distill.pub as well as an increasing number of tutorials on tensorflow.org such as machine translation. TF Hub also provides a variety of pretrained machine learning modules ready for application which are often accompanied by Colab notebooks, exemplifying their use and making it easy to get going.
Seedbank now provides a place to search for Colab-powered Machine Learning examples. You can use the top-level categories to narrow your exploration and search for keywords inside of notebooks. Each seed has a preview that lets you quickly assess if you want to explore further. Once you click through to the Colab notebook, you’ll be immediately connected to a GPU kernel and can start working through the example or tutorial. For now we are only tracking notebooks published by Google, though we may index user-created content in the future. We will do our best to update Seedbank regularly, though also be sure to check TensorFlow.org for new content.
But the best part is that Colab lets you edit the notebooks, save copies to Google Drive, and share those derivatives with your friends or on social media — all the while you can keep using the Colab GPU for fast training and inference. You can also read data from Google Drive which makes importing large datasets a snap. Naturally we have examples of how to do that on Seedbank.
Happy exploring — hopefully you will be able to find and plant the seeds of your ideas even faster now!
— —
Acknowledgements
Seedbank was built with contributions from Mike Tyka, Sures Kumar Thoddu Srinivasan, Chris Boudreaux, Simon Doury, Harini Krishnamurthy, Mike Dory, Gabriel Schubiner and Kyle Pedersen and with support from the Artists & Machine Intelligence and Colaboratory teams.