Pubblicato da Ryan Bae, Android Things

Uno dei maggiori vantaggi dell'utilizzo di Android Things è la capacità di prototipare i dispositivi connessi e scalarli con facilità a prodotti commerciali completi. Per portare avanti questo obiettivo, il team di Android Things ha stretto una collaborazione con AIY Projects, una nuova iniziativa per portare l'intelligenza artificiale fai-da-te ai maker. Il team AIY Projects ha lanciato il primo progetto di riferimento open source: un Voice Kit basato su Raspberry Pi con le istruzioni per creare un'Interfaccia Utente Vocale (VUI) che può utilizzare i servizi cloud (come il nuovo SDK dell'Assistente Google o l'API Cloud Speech) o essere eseguito completamente sul dispositivo con TensorFlow. Annunciamo l'uscita di un'Anteprima per sviluppatori 3.1 speciale di Android Things creata per Raspberry Pi 3 che supporta il Voice Kit. Gli sviluppatori possono eseguire Android Things sul Voice Kit con funzionalità complete, compresa l'integrazione con l'SDK dell'Assistente Google. Per iniziare, visita il sito AIY, scarica l'ultimissima Anteprima per sviluppatori di Android Things e segui le istruzioni.

La lista delle parti, le istruzioni per l'assemblaggio, il codice sorgente nonché le estensioni suggerite sono disponibili sul sito web AIY Projects. Il kit completo è in vendita anche in oltre 500 negozi di Barnes & Noble a livello nazionale, così come presso i rivenditori del Regno Unito, WH Smith, Tesco, Sainsbury e Asda.

Non vediamo l'ora di scoprire cosa creerai con il Voice Kit su Android Things. Ti incoraggiamo a partecipare alla Community di sviluppatori IoT di Google e a Sviluppatori SDK dell'Assistente Google su Google+, una grande risorsa per tenerti aggiornato e comunicare con altri sviluppatori.



In Google sviluppiamo avanzatissimi sistemi flessibili di machine learning (ML) per la visione artificiale che, non solo possono essere utilizzati per migliorare i nostri prodotti e servizi, ma anche per ...


In Google sviluppiamo avanzatissimi sistemi flessibili di machine learning (ML) per la visione artificiale che, non solo possono essere utilizzati per migliorare i nostri prodotti e servizi, ma anche per stimolare i progressi compiuti nell'ambito della comunità di ricerca. La creazione di modelli ML accurati, in grado di localizzare e identificare più oggetti in un'unica immagine, rimane una problematica fondamentale nel settore e infatti investiamo una quantità significativa di formazione e sperimentazione su questi sistemi.
Oggetti rilevati in un'immagine campione (dal set di dati COCO) creati da uno dei nostri modelli. Crediti per l'immagine: Michael Miley, immagine originale.
Lo scorso ottobre il nostro sistema di rilevamento degli oggetti in-house ha ottenuto ottimi risultati piazzandosi primo nella competizione di rilevamento COCO. Da allora, questo sistema ha generato risultati per diverse pubblicazioni di ricerca1,2,3,4,5,6,7 ed è stato utilizzato in prodotti Google, quali: NestCam, la funzionalità Oggetti simili e idee di stile nella Ricerca di immagini, il rilevamento di nome e numero civico in Street View.

Ora siamo lieti di rendere disponibile questo sistema a una comunità di ricerca più ampia attraverso l'API Object Detection di TensorFlow. Questo codebase è un framework open source basato su TensorFlow che semplifica la creazione, formazione e distribuzione dei modelli di rilevamento degli oggetti. Il nostro obiettivo nella progettazione di questo sistema è supportare modelli allo stato dell'arte consentendo nel contempo una rapida esplorazione e ricerca. La nostra prima versione include i componenti che seguono.
I modelli SSD che utilizzano MobileNet sono leggeri per essere comodamente eseguiti in tempo reale sui dispositivi mobili. Per la nostra presentazione vincente alla competizione COCO del 2016 abbiamo utilizzato un insieme di modelli Faster RCNN, che sono più impegnativi dal punto di vista computazionale ma sono significativamente più precisi. Per ulteriori informazioni sulle prestazioni di questi modelli, consulta il nostro paper CVPR 2017.

Sei pronto per iniziare?
Questo codice ci è stato decisamente utile nell'ambito della visione artificiale, e ci auguriamo che lo sia anche per te. Ti invitiamo a mandarci qualsiasi contributo relativo al codebase e a seguirci per scoprire i nuovi aggiornamenti sul framework. Per iniziare, scarica il codice qui e cerca di rilevare gli oggetti in alcune delle tue immagini utilizzando Jupyter Notebook o addestrando il tuo rilevatore di animali domestici nel motore Cloud ML!

Riconoscimenti
La release dell'API Object Detection di TensorFlow e il modello di zoo preaddestrato sono il risultato di un'ampia collaborazione tra diversi ricercatori di Google che si sono avvalsi del feedback e del testing di gruppi di prodotti. In particolare vogliamo menzionare i contributi delle seguenti persone.

Contributori principali: Derek Chow, Chen Sun, Menglong Zhu, Matthew Tang, Anoop Korattikara, Alireza Fathi, Ian Fischer, Zbigniew Wojna, Yang Song, Sergio Guadarrama, Jasper Uijlings, Viacheslav Kovalevskyi, Kevin Murphy

Un ringraziamento particolare a: Andrew Howard, Rahul Sukthankar, Vittorio Ferrari, Tom Duerig, Chuck Rosenberg, Hartwig Adam, Jing Jing Long, Victor Gomes, George Papandreou, Tyler Zhu

Riferimenti
  1. Speed/accuracy trade-offs for modern convolutional object detectors, Huang et al., CVPR 2017 (paper che descriive questo framework)
  2. Towards Accurate Multi-person Pose Estimation in the Wild, Papandreou et al., CVPR 2017
  3. YouTube-BoundingBoxes: A Large High-Precision Human-Annotated Data Set for Object Detection in Video, Real et al., CVPR 2017 (vedi anche il nostro post del blog )
  4. Beyond Skip Connections: Top-Down Modulation for Object Detection, Shrivastava et al., arXiv preprint arXiv:1612.06851, 2016
  5. Spatially Adaptive Computation Time for Residual Networks, Figurnov et al., CVPR 2017
  6. AVA: A Video Dataset of Spatio-temporally Localized Atomic Visual Actions, Gu et al., arXiv preprint arXiv:1705.08421, 2017
  7. MobileNets: Efficient convolutional neural networks for mobile vision applications, Howard et al., arXiv preprint arXiv:1704.04861, 2017

Pubblicato da Dave Burke, VP di Engineering
Pubblicato da Dave Burke, VP di Engineering
In occasione di Google I/O, abbiamo annunciato la seconda anteprima per sviluppatori di Android O insieme ad altri temi chiave, Fluid Experiences e Vitals, e abbiamo parlato del nostro impegno verso una base modulare con Project Treble. Per noi anche il rilascio del primo prodotto di qualità beta è stato un traguardo importante. Abbiamo presentato le novità di Android durante le sessioni di keynote e breakout e, se ti sei perso il livestream, puoi vedere l'archivio completo degli interventi qui.

Lanciamo l'Anteprima per sviluppatori 3 con le API di Android O finali, le immagini di sistema più recenti e un aggiornamento di Android Studio per prepararti alla versione per consumatori che verrà rilasciata quest'estate. A luglio sarà disponibile un altro aggiornamento per l'anteprima che include le immagini di sistema quasi finali.

Se hai già iscritto il tuo dispositivo al Programma Beta di Android, riceverai un aggiornamento dell'Anteprima per sviluppatori 3.

Rendi la tua app compatibile con Android O


Con il lancio della versione per consumatori previsto nei prossimi mesi, un primo passo importante è rendere compatibile la tua app attuale con Android O. Questo garantirà agli utenti una transizione fluida alla nuova piattaforma quando sarà pronta per i loro dispositivi.

Se non hai ancora testato la compatibilità della tua app, iniziare è semplice: basta iscrivere il dispositivo supportato ad Android Beta, procurarti l'ultimo aggiornamento in modalità OTA, quindi installare l'app attuale da Google Play e testarla. L'app dovrebbe funzionare bene dal punto di vista sia operativo sia estetico nonché gestire correttamente i cambiamenti di comportamento di Android O, in particolare per quanto riguarda i limiti di background e le modifiche nell'ambito di networking, sicurezza e degli identificatori.

Dopo aver eseguito gli aggiornamenti necessari, ti consigliamo di pubblicare subito la versione compatibile della tua app su Google Play senza modificare il targeting della piattaforma dell'app.

Migliora la tua app con le funzionalità e le API di Android O


Ampliare le funzionalità delle tue app con Android O ti consentirà di incentivare il coinvolgimento, offrire nuove tipi di interazioni, dare agli utenti controllo e sicurezza maggiori e perfino migliorare le prestazioni dell'app.

I canali di notifica e i punti offrono altri modi per rendere visibili i nuovi contenuti agli utenti e farli tornare alla tua app. Picture-in-picture consente agli utenti di gestire più task contemporaneamente pur mantenendo l'app sullo schermo e la compilazione automatica rende semplice l'immissione di dati dei form e contribuisce alla sicurezza dei dati. Vieni anche a vedere le icone adattive, le risorse di font XML, i font scaricabili, le emoji, il ridimensionamento automatico di TextView, l'API AAudio e molto altro. Ti consigliamo anche di pensare al supporto per i limiti di esecuzione in background e agli altri importanti cambiamenti di comportamento dei vitals del sistema per le app O.

Visita il sito web Anteprima per sviluppatori O per scoprire tutte le funzionalità e API nuove, e capire come crearle nelle tue app.
La modalità Picture-in-Picture ti consente di coinvolgere gli utenti durante il multitasking (a sinistra). I punti di notifica tengono gli utenti impegnati nell'app e consentono loro di passare direttamente alle principali funzioni dell'app (a destra).

Inizia con l'Anteprima per sviluppatori 3


L'aggiornamento dell'anteprima include l'ultima versione della piattaforma Android O con l'API finale di livello 26 e centinaia di correzioni di bug e ottimizzazioni. Puoi scaricare l'SDK dell'API 26 finale dall'SDK Manager in Android Studio e la Android Support Library 26.0.0 beta 2 dal Repository Maven di Google.

Questi prodotti insieme forniscono tutto il necessario per sviluppare e testare le tue app con le API ufficiali di Android O. Dopo aver installato l'SDK finale, puoi aggiornare compileSdkVersion del tuo progetto con l'API 26 per compilare con le API Android O ufficiali. Ti consigliamo anche di aggiornare targetSdkVersion della tua app con l'API 26 per l'opt-in e testare l'app con gli specifici cambiamenti di comportamento di Android O. Consulta la guida di migrazione per i dettagli su come impostare il tuo ambiente e creare utilizzando Android O.

Le API sono cambiate a partire dalla seconda anteprima per sviluppatori, quindi se il tuo codice attuale usa le API precedenti di Android O, dai un'occhiata al report diff per vedere come ciò potrebbe influire sul codice.

Se sviluppi per Android O, ti consigliamo di eseguire l'aggiornamento all'ultima versione di Android Studio 3.0, ora disponibile sul canale Canary. Oltre alle grandi nuove funzionalità, come gli strumenti per il profiling delle prestazioni delle app, il supporto per il linguaggio di programmazione Kotlin e le ottimizzazioni delle build Gradle, Android Studio 3.0 offre il supporto di build per Instant Apps, una Procedura guidata Icona adattiva, e il supporto per i font XML e font scaricabili.
Android Studio 3.0 comprende strumenti per lo sviluppo con le funzionalità di Android O e consente di visualizzare in anteprima le risorse dei font XML nell'app.

Se non prevedi di sfruttare queste funzionalità, allora hai l'alternativa di sviluppare per Android O utilizzando Android Studio 2.3.3 dal canale stabile. Tieni presente che gli strumenti per lavorare con le icone adattive, i font scaricabili e i caratteri XML non sono disponibili in Android Studio 2.3.3.

Pubblica le tue app nei canali alfa, beta o di produzione in Google Play


Ora che le API sono state finalizzate, puoi pubblicare gli aggiornamenti APK che compilano ed eventualmente eseguono il targeting dell'API 26 nei tuoi canali alfa, beta o persino di produzione in Google Play. La pubblicazione dell'app per O durante l'anteprima consente di verificare la compatibilità con i dispositivi esistenti e inviare aggiornamenti push ai dispositivi che eseguono l'API 26, ad esempio agli utenti iscritti al programma Android Beta.

Per assicurarti che l'app aggiornata funzioni correttamente su Android O e sulle versioni precedenti, una strategia diffusa è utilizzare la funzionalità Beta testing di Google Play per ricevere subito il feedback di un piccolo gruppo di utenti, tra cui gli utenti dell’Anteprima per sviluppatori, e poi effettuare un rollout in fasi contemporaneamente al rilascio dell'app aggiornata a tutti gli utenti.

Come ottenere l’aggiornamento dell'anteprima


Grazie al Programma Beta di Android, gli sviluppatori e gli utilizzatori con accesso anticipato riceveranno presto l'Anteprima per sviluppatori 3 sui loro dispositivi. Se ancora non ti sei iscritto, visita android.com/beta e dai il consenso per il tuo telefono o tablet Android idoneo. Puoi anche scaricare ed effettuare il flash di questo aggiornamento manualmente. L'Anteprima per sviluppatori è disponibile per Pixel, Pixel XL, Pixel C, Nexus 5X, Nexus 6P e Nexus Player.

Ti ringraziamo per tutti i commenti che hai condiviso finora con noi. Ti preghiamo di continuare a comunicarci il tuo feedback e le tue richieste mentre ci occupiamo della release per consumatori di fine estate. Non vediamo l’ora di scoprire le tue app su Android O!

Originariamente pubblicato da Hodie Meyers, Product Manager, Google Drive, e Wesley Chun (@wescpy), Developer Advocate, G Suite del Blog G Suite Developers
Le imprese cercano sempre nuovi modi per operare più efficientemente e quindi fornire gli strumenti giusti agli sviluppatori può fare la differenza. Quest'anno ...
Originariamente pubblicato da Hodie Meyers, Product Manager, Google Drive, e Wesley Chun (@wescpy), Developer Advocate, G Suite del Blog G Suite Developers
Le imprese cercano sempre nuovi modi per operare più efficientemente e quindi fornire gli strumenti giusti agli sviluppatori può fare la differenza. Quest'anno abbiamo lanciato Team Drives per portare il meglio di ciò che gli utenti amano di Drive ai team aziendali. Abbiamo inoltre aggiornato l'API Google Drive affinché gli sviluppatori possano sfruttare Team Drives nelle app che creano.

In quest'ultimo video di G Suite Dev Show ti spieghiamo come sfruttare le funzionalità di Team Drives nelle app. La buona notizia è che non dovrai imparare un'API totalmente nuova perché le funzionalità di Team Drives sono incorporate nell'API Drive, così potrai basarti su ciò che già conosci. Ecco il video.

Alla fine di questo video, avrai acquisito una certa familiarità con quattro operazioni basilari che ti consentiranno di creare le funzionalità Team Drives direttamente nelle tue app:
  1. Come creare Team Drives
  2. Come aggiungere membri/utenti a Team Drives
  3. Come creare le cartelle in Team Drives (esattamente come creeresti una normale cartella Drive)
  4. Come caricare/importare i file nelle cartelle di Team Drives (esattamente come caricheresti i file in una normale cartella)

Vuoi saperne di più su questo codice? Vieni a vedere il post più approfondito del blog. In breve l'API Drive può aiutare molti sviluppatori a creare soluzioni che funzionino sia con Google Drive che con Team Drives. Non importa se sei un fornitore di software indipendente (ISV), un System Integrator (SI) o ricopri qualsiasi altro incarico in ambito IT, ci sono molti modi di utilizzare l'API Drive per incrementare la produttività, facilitare la migrazione della tua azienda alla G Suite o creare strumenti per automatizzare i flussi di lavoro.

Le funzionalità di Team Drives sono disponibili sia nell'API Drive v2 sia v3, e ulteriori dettagli sono illustrati nella pagina documentazione API Drive. Non vediamo l’ora di scoprire cosa creerai con Team Drives!



I container sono una metodologia ripetibile e affidabile di implementazione sulla Google Cloud Platform (GCP). Visto il numero sempre crescente di richieste di adozione dei container, riscontriamo una chiara necessità di offrire più container preconfezionati, sicuri e mantenuti, che i clienti possano implementare facilmente nel loro ambiente. In occasione di Google Cloud Next '17, abbiamo ...


I container sono una metodologia ripetibile e affidabile di implementazione sulla Google Cloud Platform (GCP). Visto il numero sempre crescente di richieste di adozione dei container, riscontriamo una chiara necessità di offrire più container preconfezionati, sicuri e mantenuti, che i clienti possano implementare facilmente nel loro ambiente. In occasione di Google Cloud Next '17, abbiamo lanciato le immagini base di runtime dei container per Debian, Ruby, OpenJDK, Jetty, Node.js e ASP.NET Core. Ora siamo lieti di aggiungere i seguenti container gestiti da Google:


Le soluzioni container di Google sono gestite dagli sviluppatori di Google. Dal momento che manteniamo le immagini, i container disponibili su Google Cloud Launcher saranno aggiornati in base agli ultimi aggiornamenti delle applicazioni e di sicurezza.

Le soluzioni usate per costruire i container sono disponibili su GitHub affinché sia visibile pubblicamente come sono state create. Puoi utilizzare gli script e modificarli per creare la tua particolare versione di container. Ci impegniamo a garantire che i container non siano gonfiati e siano immagini "vanilla" (ossia standard, semplici).

A parte quello per l'infrastruttura, non ci sono costi aggiuntivi per utilizzare questi container, e sono compatibili con Docker e Kubernetes. Le immagini di container possono essere usate sulla GCP con Google App Engine, Google Container Engine, Docker o persino al di fuori della GCP in un ambiente Kubernetes in locale. Sono soluzioni a livello di produzione, ossia puoi implementarle su una macchina virtuale compatibile e gestire la tua attività da lì.

Il nostro team di sviluppatori desidera riceve i feedback quindi sentiti libero di pubblicare sull'Issue tracker di GitHub in relazione alle soluzioni container, inclusi gli eventuali problemi o le richieste di funzionalità. Guarda l'elenco completo delle soluzioni container open source gestite dai Googler qui.

Se ancora non conosci GCP, puoi facilmente iniziare dai 300 dollari di credito che offriamo per 12 mesi.


Volete saperne di più sui Google Developer Group? Visitate il sito: https://developers.google.com/groups/

Pubblicato da Azzurra Ragone e Alfredo Morresi, Community Manager @Google

 Le luci si sono da poco spente sul Google I/O 2017, ma è ancora vivo il ricordo dei colori, delle novità presentate, dell’entusiasmo che da sempre caratterizzano questo appuntamento annuale in cui sviluppatori, designer, professionisti, studenti e semplici curiosi da tutto il mondo arrivano nella Silicon Valley per condividere la loro passione per le tecnologie di “Big G”.

Come ogni anno, per chi non ha avuto la possibilità di volare in California, c’è stato un modo altrettanto appassionato di poter seguire il Google I/O: gli Extended. Meetup organizzati in tutto il mondo, in cui trovarsi assieme per guardare il keynote in contemporanea con l’evento di Mountain View, e partecipare ad altre attività satellite come codelab, hackathon, talk, ecc.

Quest’anno sono stati più di 600 gli Extended organizzati, con una buona fetta di questi avvenuti in Europa, come si può vedere dalla mappa degli eventi.
Italia e Malta hanno contribuito alla causa, con i GDG (Google Developer Group) di queste due nazioni che hanno organizzato ben 23 Google I/O Extended nelle seguenti località: Ancona, Bari, Bologna, Brescia, Cagliari, Campobasso, Catania, Cosenza, Firenze, Gela, Genova, Messina, Milano, Napoli, Palermo, Pisa, Reggio Emilia, Roma, Torino, Trento, Venezia e Hamrun.

Diversi gruppi hanno arricchito l’esperienza del keynote grazie a contenuti presentati da speaker locali, come Firenze dove si è parlato Android, Malta con due talk sulla Realtà Virtuale, uno sui Container in Docker e uno sui Sistemi Distribuiti. Il GDG Catania ha addirittura organizzato un evento di 3 giornate che ha visto più di 250 sviluppatori partecipare, attratti dai tanti argomenti come Machine Learning, Tensor Flow, stampanti 3D e bracci bionici, IoT, Security, Public speaking, Gaming e molto altro, hackathon compreso.

Oltre ai contenuti, anche la cornice ha saputo rendere particolare l’esperienza, come a Venezia dove il GDG locale ha proiettato il keynote all’interno della suggestiva tappa Veneziana del Grand Tour, oppure a Bologna dove i partecipanti si sono ritrovati direttamente al pub. Lo spirito di collaborazione ha invece contraddistinto Messina, dove GDG Nebrodi e la community Sicily on Rails hanno ospitato oltre 100 partecipanti.


Tuttavia il minimo comune denominatore di tutti gli eventi è stato l’entusiasmo e la passione per le tecnologie Google, che da sempre caratterizzano le community dei Google Developer Group, e sappiamo che nulla è più contagioso di un sano entusiasmo, per cui lasciatevi contagiare!
Volete saperne di più sui Google Developer Group? Visitate il sito: https://developers.google.com/groups/



Gli sviluppatori che utilizzano Google Apps Script ...


Gli sviluppatori che utilizzano Google Apps Script da ora possono accedere al gruppo di funzionalità più estese dell'API Fogli Google grazie all'ultimo lancio di Advanced Sheets Service. Un vantaggio fondamentale nell'utilizzo di un servizio avanzato rispetto agli oggetti Apps Script nativi è che gli sviluppatori possono accedere alle funzioni API correnti (senza dover attendere il supporto nativo). Il servizio avanzato, ad esempio, consente loro di accedere ai filtri Fogli che rendono i componenti aggiuntivi più coinvolgenti.

Funzionalità dei filtri 

Con l'API Fogli, gli sviluppatori possono già ottenere righe filtrate o impostare nuovi filtri per i dati di Fogli. Grazie ad Advanced Sheet Service, ora possono far sì che i componenti aggiuntivi rispettino questi filtri e applicarne di nuovi per stabilire quali dati rendere visibili nella UI Fogli. Inoltre, con qualsiasi servizio avanzato di Apps Script, puoi facilmente accedere a Fogli e alle altre API di Google senza usare il servizio UrlFetch né gestire il flusso di autorizzazione che dovresti altrimenti eseguire utilizzando direttamente l'API REST. Lo snippet riportato di seguito restituisce gli indici delle righe filtrate in un determinato foglio. Da notare è che puoi anche recuperare l'elenco delle righe nascoste manualmente, usando la voce di menu "Nascondi riga" in Fogli Google, come indicato nella Documentazione API. In questo esempio di codice vengono mostrate le righe nascoste dal filtro.

 function getIndexesOfFilteredRows(ssId, sheetId) {
  var hiddenRows = [];
  
  // limit what's returned from the API
  var fields = "sheets(data(rowMetadata(hiddenByFilter)),properties/sheetId)";
  var sheets = Sheets.Spreadsheets.get(ssId, {fields: fields}).sheets;  
  
  for (var i = 0; i < sheets.length; i++) {
    if (sheets[i].properties.sheetId == sheetId) {
      var data = sheets[i].data;
      var rows = data[0].rowMetadata;
      for (var j = 0; j < rows.length; j++) {
        if (rows[j].hiddenByFilter) hiddenRows.push(j);
      }
    }
  }
  return hiddenRows;
} 
Il parametro dei campi dello snippet di codice limita ciò che è restituito nella risposta dell'API Fogli, richiedendo solo i valori importanti per la tua applicazione. Per ulteriori informazioni, vieni a vedere questa pagina nel documento dell'API Fogli o questo video recente sulle maschere del campo.

Come i componenti aggiuntivi utilizzano i filtri 

Ci sono parecchi componenti aggiuntivi che utilizzano i filtri avanzati in Fogli. Ecco alcuni esempi:
  • Yet Another Mail Merge: questo componente aggiuntivo consente agli utenti di inviare campagne email da un foglio di calcolo ed è ideato per elaborare solo le righe filtrate di un foglio. Supponiamo che tu abbia un elenco di persone registrate per un evento, ma ne hai approvate solo alcune e devi inviare loro una conferma tramite email. Grazie a Yet Another Mail Merge e all'API aggiornata, puoi filtrare le persone indesiderate e il componente aggiuntivo le salterà senza inviare loro alcuna conferma.
  • Sankey Snip e Chord Snip: questi componenti aggiuntivi consentono agli utenti di creare tipi di grafici particolari non disponibili nell'UI di Fogli Google. Quando è abilitato il rispetto dei filtri di questi componenti aggiuntivi, i grafici visualizzeranno dinamicamente i dati filtrati. Segue un esempio preso da Chord Snip Add-on.
Naturalmente l'API fornisce anche la possibilità di aggiungere, aggiornare o eliminare i filtri in un foglio, molto utile per rendere velocemente visibili le righe con uno stato particolare ai tuoi utenti. Un esempio potrebbe essere se hai creato un componente aggiuntivo per l'approvazione del flusso di lavoro, perché puoi visualizzare le righe degli utenti in attesa di approvazione. Lo snippet di seguito applica il filtro richiesto in un determinato foglio. La documentazione API descrive un oggetto filtro di base standard:

function setSheetBasicFilter(ssId, BasicFilterSettings) {
  //requests is an array of batchrequests, here we only use setBasicFilter
  var requests = [
    {
      "setBasicFilter": {
        "filter": BasicFilterSettings
      }
    }
  ];
  Sheets.Spreadsheets.batchUpdate({'requests': requests}, ssId);
}

Yet Another Mail Merge, come molti altri strumenti di mailing di massa, tiene traccia di tutte le email inviate, aperte e cliccate. Un report di tracciamento è disponibile nella barra laterale del foglio di calcolo e, facendo clic sul numero di email aperte, verrà automaticamente applicato un filtro per visualizzare solo le righe corrispondenti, ossia le righe con lo stato "aperto".

Da ora puoi determinare i filtri applicati in un foglio direttamente tramite l'API Fogli o attraverso le app Apps Script e Add-ons usando l'Advanced Sheets Service e continuare a proporre la migliore esperienza possibile ai tuoi utenti.

Informazioni sugli autori 

Romain Vialard è un Google Developer Expert. Dopo aver lavorato per alcuni anni come consulente per G Suite, ora si concentra sui prodotti per gli utenti di G Suite e Google Apps, compresi i componenti aggiuntivi Yet Another Mail Merge e Form Publisher.

Bruce Mcpherson è un Google Developer Expert, consulente indipendente, blogger e l'autore di Going GAS, Google Apps Script for Beginners e Google Apps Script for Developers.


Qualche mese fa abbiamo annunciato una versione preliminare della piattaforma degli sviluppatori Actions on Google per Google Home. Da allora ci siamo concentrati sull'ampliamento del pubblico, espandendo le funzionalità della piattaforma e migliorando complessivamente l'esperienza degli sviluppatori. Ora siamo entusiasti di rendere la piattaforma disponibile per telefoni, introdurre nuove caratteristiche e funzionalità, migliorare il nostro SDK e continuare a lavorare insieme allo scopo di creare grandi applicazioni per gli utenti dell'Assistente Google ovunque siano ...
Pubblicato da Brad Abrams, Product Manager per Assistente Google


Qualche mese fa abbiamo annunciato una versione preliminare della piattaforma degli sviluppatori Actions on Google per Google Home. Da allora ci siamo concentrati sull'ampliamento del pubblico, espandendo le funzionalità della piattaforma e migliorando complessivamente l'esperienza degli sviluppatori. Ora siamo entusiasti di rendere la piattaforma disponibile per telefoni, introdurre nuove caratteristiche e funzionalità, migliorare il nostro SDK e continuare a lavorare insieme allo scopo di creare grandi applicazioni per gli utenti dell'Assistente Google ovunque siano!

Presentazione di Actions on Google per telefoni


Da quando la piattaforma è stata lanciata a dicembre, è stato emozionante vedere molte applicazioni creative e interessanti prendere forma su Google Home, dalla collaborazione con FitStar ai notiziari su CNBC. Ora Actions on Google per l'Assistente sarà disponibile sia sui telefoni Android sia sugli iPhone.


Grazie a queste app per l'Assistente ora disponibili sui telefoni, avrai l'opportunità di ampliare la tua base di utenti e realizzare app per casi di utilizzo del tutto nuovi, ossia per quei prodotti che finora non erano adatti a un'interfaccia solo per voce, come acquistare vestiti o ordinare cibo da un lungo menu. Passare a uno schermo significa inoltre che gli utenti possono facilmente ottenere i risultati desiderati con la loro app utilizzando i nuovi elementi dell'UI, quali sequenze di immagini, elenchi e suggerimenti.


È possibile creare e distribuire app per l'Assistente sui telefoni consultando la documentazione.


Presto lanceremo Actions on Google in lingua inglese nel Regno Unito e alla fine di quest'anno in francese, tedesco e in altre lingue.


Aggiunta di transazioni e pagamenti

Il nostro obiettivo con l'Assistente è aiutarti a svolgere le tue attività, e non significa solo porre domande o ascoltare informazioni. Vogliamo anche semplificare il completamento di un acquisto.

Per abilitare i pagamenti nelle tue app con l'Assistente Google, hai due opzioni: utilizzare il pagamento agevolato da Google, che è gratuito, facile da integrare e ti consente di sfruttare centinaia di milioni di carte già disponibili su Google, oppure utilizzare il metodo di pagamento già fornito dall'utente. Nel caso di questa seconda opzione consigliamo di utilizzare la nuova facile soluzione per il collegamento dell'account, che permette agli utenti di accedere a un account esistente o crearne uno nuovo con un paio di tocchi.


Una transazione non finisce quando l'utente paga, ma include operazioni come il monitoraggio e la modifica di un ordine o la riordinazione. Ecco perché l'Assistente ora consente di vedere tutte le transazioni in una singola visualizzazione di cronologia. Abbiamo anche creato una funzionalità di aggiornamento degli ordini per ricoinvolgere più facilmente gli utenti, che permette di inviare aggiornamenti di stato, come quando sta per arrivare l'auto che li deve venire a prendere, quando viene consegnato il cibo o quando è pronta una prescrizione.


Puoi iniziare subito a creare e testare le app transazionali che molto presto saranno disponibili sui telefoni per gli utenti dell'Assistente Google.

Migliori strumenti e metodologie di individuazione

Con tutte queste nuove funzionalità, avere basi solide diventa sempre più importante e sappiamo che l'utilizzo di ottimi strumenti e l'individuazione sono in cima alla lista delle priorità.


Ci impegniamo a offrire un'ottima esperienza di sviluppo, quindi abbiamo lanciato anche una nuova console per sviluppatori che aiuta a lavorare in team e raccogliere dati relativi agli usi, alle prestazioni e ai modelli di individuazione da parte dell'utente. È integrata con le console di Firebase e Google Cloud, per permetterti di condividere i dati tra le tue app.


Stiamo anche per lanciare la nuova directory dell'app. Include sia le categorie sia le valutazioni degli utenti che possono accedervi con un singolo tocco dall'Assistente Google. Ogni pagina della directory dell'app è anche condivisibile sul Web per pubblicizzare la tua app agli utenti nuovi ed esistenti che poi possono condividerla con i loro amici.


Grazie a questo aggiornamento saranno anche in grado di creare una scorciatoia per la tua app, così invece di dire "Ok Google, chiedi al meteorologo Joe le previsioni per il surfing a Outer Banks", l'utente può semplicemente usare una sua scorciatoia personale del tipo "Ok Google, com'è il surfing oggi?" per riconnettersi facilmente all'app.


Anche se siamo fiduciosi che queste caratteristiche aiuteranno a migliorare l'individuabilità, sappiamo che il nostro lavoro non è finito! Continueremo ad aggiungere nuove funzionalità e a migliorare l'individuabilità delle tue app nel corso del tempo.

Aggiornamento dell'SDK Assistente

Il mese scorso abbiamo presentato un'anteprima dell'SDK Assistente Google, continuiamo a perfezionarlo aggiungendo nuove funzionalità.


Grazie al supporto hotword, ora gli sviluppatori possono creare dispositivi attivati da "Ok Google" piuttosto che da un pulsante o un'altra azione fisica. Abbiamo anche aggiunto la possibilità di avere sia timer che allarmi. Così un utente può dire "Ok Google, imposta un timer per 60 secondi" su qualsiasi dispositivo con l'Assistente Google incorporato.


Anche se siamo ancora nelle prime fasi dell'SDK e della piattaforma, vogliamo creare un'esperienza sempre più completa per gli sviluppatori. Stiamo anche cercando di rendere la piattaforma disponibile sui nuovi dispositivi, compresi quelli con tecnologia SDK Assistente Google.



Annuncio di una nuova competizione per sviluppatori

Infine, ma non per questo meno importante, lanciamo anche la prima competizione per sviluppatori Actions on Google, nella quale saranno assegnati oltre 20 premi alle migliori app per l'Assistente Google. Inizia subito a creare, non vediamo l’ora di scoprire cosa riuscirai a realizzare!


Siamo pronti a percorrere questo cammino e speriamo di collaborare con te nello sviluppo di nuove app per l'Assistente Google.



I ricercatori necessitano di enormi risorse computazionali per addestrare i modelli di machine learning (ML) che hanno portato a grandi passi avanti nell ...


I ricercatori necessitano di enormi risorse computazionali per addestrare i modelli di machine learning (ML) che hanno portato a grandi passi avanti nell'imaging medico, nella traduzione automatica neurale, nei giochi e in molti altri settori. Crediamo che capacità computazionali significativamente maggiori permetteranno ai ricercatori di inventare nuove tipologie di modelli di ML che saranno ancora più accurati e utili.

Per velocizzare il passo della ricerca sull’open machine learning, presentiamo il TensorFlow Research Cloud (TFRC), un cluster di 1.000 Cloud TPU che sarà disponibile gratuitamente allo scopo di sostenere una vasta gamma di progetti di ricerca computazionali intensivi che altrimenti non sarebbero possibili.
Il TensorFlow Research Cloud offre ai ricercatori i seguenti vantaggi:
  • Accesso ai nuovi Cloud TPU di Google che accelerano l’addestramento e anche l’inferenza
  • Fino a 180 teraflop di performance a virgola mobile per ogni Cloud TPU
  • 64 GB di memoria a banda ultra elevata per ogni Cloud TPU
  • Interfacce di programmazione familiari TensorFlow
Puoi registrarti qui per richiedere di essere avvisato quando si apriranno le iscrizioni per il TensorFlow Research Cloud, e puoi anche offrirci maggiori dettagli sulle tue necessità computazionali. Prevediamo di valutare le domande continuamente per scoprire le proposte più creative e ambiziose.

Il programma TensorFlow Research Cloud non si limita soltanto al mondo accademico: siamo consapevoli del fatto che persone dalle appartenenze, competenze e ruoli più svariati offrano contributi importanti alla ricerca sul machine learning, pertanto incoraggiamo in particolare chi ha un background non tradizionale a inoltrare la domanda. Sarà garantito l’accesso a un numero selezionato di persone per un lasso di tempo computazionale limitato, e i ricercatori potranno tranquillamente fare domanda più volte con diversi progetti.
Poiché l’obiettivo principale di TensorFlow Research Cloud è favorire tutta la community dei ricercatori dell’open machine learning, i candidati prescelti dovranno fare quanto segue:
  • Condividere con il mondo la propria ricerca sostenuta da TFRC attraverso pubblicazioni recensite da altri pari, codice open source, articoli di blog e altri media aperti.
  • Condividere con Google i loro feedback concreti e costruttivi per aiutarci a migliorare il programma TFRC e la sottostante piattaforma Cloud TPU nel corso del tempo.
  • Immaginare un futuro nel quale l’accelerazione ML sia molto presente e sviluppare nuove tipologie di modelli di machine learning in previsione di tale futuro.
Per le aziende interessate a usare i Cloud TPU per ricerca e sviluppo privati, offriremo un programma parallelo di Cloud TPU Alpha. Puoi registrarti qui per saperne di più su questo programma. Consigliamo di partecipare al programma Cloud TPU Alpha se sei interessato a uno qualsiasi di questi aspetti:
  • Accelerare l’addestramento di modelli di ML privati; i modelli che richiedono settimane per l’addestramento su un altro hardware possono essere addestrati in pochi giorni o perfino ore sui Cloud TPU.
  • Accelerare l’elaborazione batch di set di dati su scala industriale: immagini, video, audio, testo non strutturato, dati strutturati ecc.
  • Elaborare richieste live in produzione utilizzando modelli di ML più grandi e complessi che mai.
Ci auguriamo che il TensorFlow Research Cloud consenta a quanti più ricercatori possibili di esplorare le frontiere della ricerca sul machine learning ed espanderle con nuove scoperte! Ti incoraggiamo a registrarti subito per essere il primo a ricevere ulteriori informazioni non appena saranno disponibili.

Pubblicato da Jocelyn Becker, Senior Program Manager, Android Training

Il corso online di Sviluppo avanzato delle app Android è stato aggiornato, migliorato ed esteso per guidarti nella creazione di una serie di applicazioni di esempio e imparare alcuni degli aspetti più avanzati dello sviluppo.

Con l'ultimo corso autogestito, imparerai a conoscere i frammenti costruendo un gioco di mix e match per creare personaggi Android.


Potrai creare un'app quiz musicale per conoscere i lettori multimediali e poi creare un'app che utilizza i widget per consentire agli utenti di piantare e innaffiare piante virtuali.


Scoprirai come utilizzare le librerie, creando un'app che utilizza l'API Mobile Vision di Google per distinguere se stai sorridendo o facendo delle smorfie. Allo scopo di sapere come rendere l'app consapevole della sua posizione, utilizzerai l'API di Google Places con i geofence per far tacere il telefono nelle situazioni in cui una notifica a volume alto potrebbe disturbare.

Alla fine del corso, avrai appreso come inviare notifiche push dal server alle app Android del client utilizzando Firebase Cloud Messaging, e come testare l'UI con Espresso, uno strumento integrato di Android Studio. Il corso illustra anche come pubblicare la tua applicazione su Google Play.

Gli esperti Android di Google hanno collaborato con gli sviluppatori di corsi a Udacity per creare le nuove lezioni. Il corso è la prossima tappa nel tuo percorso da sviluppatore Android esperto; ci auguriamo che tu abbia completato il corso di Sviluppo delle app Android prima di iniziare quello avanzato.

Il corso è disponibile online presso Udacity e puoi gestirlo seguendo il tuo ritmo individuale. È disponibile gratuitamente oppure puoi seguirlo nell'ambito della tua Udacity Android Developer Nanodegree.

Vieni a creare delle app fenomenali! Per saperne di più, visita il sito https://www.udacity.com/course/ud855.

Pubblicato da Billy Rutledge, Direttore di AIY Projects
I nostri team vengono costantemente ispirati da come i maker riescono a sfruttare la tecnologia Google per creare cose pazzesche e davvero innovative ...
Pubblicato da Billy Rutledge, Direttore di AIY Projects
I nostri team vengono costantemente ispirati da come i maker riescono a sfruttare la tecnologia Google per creare cose pazzesche e davvero innovative. Cose che non avremmo mai immaginato di fare noi stessi, cose che risolvono i problemi del mondo reale. Dopo aver parlato con i membri della community dei maker (anche detti artigiani digitali), abbiamo appreso che molti erano interessati a utilizzare l'intelligenza artificiale nei loro progetti ma non sapevano da dove iniziare. Per colmare questa lacuna, abbiamo deciso di lanciare AIY Projects: l'intelligenza artificiale fai-da-te per i maker.
Con AIY Projects, i maker possono utilizzare l'intelligenza artificiale per rendere l'interazione uomo-macchina più simile a quella tra esseri umani. A breve annunceremo l'uscita di una serie di kit di riferimento, a partire dal riconoscimento vocale. La funzionalità di riconoscimento vocale del nostro primo progetto può essere utilizzata per:
  • Sostituire i pulsanti fisici e gli schermi digitali (che fanno così anni '90) su elettrodomestici ed elettronica di consumo (immagina una macchina del caffè senza pulsanti o schermi a cui basta solo parlare)
  • Sostituire le app dello smartphone per controllare i dispositivi (che fanno così millennio) sui dispositivi collegati (immagina una lampadina o un termostato collegati a cui basta solo parlare)
  • Aggiungere il riconoscimento vocale alla robotica assistita (ad esempio per l'accessibilità); basta parlare con il robot come a un'interfaccia di programmazione semplificata, ad es. "Dimmi cosa c'è in questa stanza" o "Dimmi quando vedi il postino alla porta".
Voice Kit completamente assemblato
Il primo progetto di riferimento open source è il Voice Kit: le istruzioni per creare un'Interfaccia Utente Vocale (VUI) che può utilizzare i servizi cloud (come il nuovo SDK dell'Assistente Google o l'API Cloud Speech) o essere eseguito completamente sul dispositivo. Questo progetto estende le funzionalità del più popolare computer a scheda singola utilizzato per la fabbricazione digitale, il Raspberry Pi.
Componenti del Voice Kit

Il Voice Hardware Accessory on Top (HAT) contiene hardware per l'acquisizione e la riproduzione audio: connettori di facile utilizzo per la scheda figlia con doppio microfono e altoparlante, connettori GPIO per collegare i componenti a bassa tensione, come i micro-servomeccanismi e i sensori, e un connettore a cilindro opzionale per l'apposito alimentatore. È stato progettato e testato con il Raspberry Pi 3 Model B.
Gli sviluppatori possono eseguire Android Things sul Voice Kit con funzionalità complete per prototipare i dispositivi Internet-of-Things e scalarli con facilità a prodotti commerciali completi utilizzando le diverse soluzioni hardware pronte all'uso disponibili (inclusi Intel Edison, NXP Pico e Raspberry Pi 3). Per iniziare scarica l'ultimissima Anteprima per sviluppatori di Android Things.
Primo piano della scheda accessoria HAT di Voice


Creazione con l'SDK dell'Assistente Google
L'Anteprima per sviluppatori dell'SDK dell'Assistente Google è uscita la settimana scorsa. È abilitata per impostazione predefinita e porta l'Assistente Google al tuo Kit Voice, compresi il controllo vocale, la comprensione del linguaggio naturale, l'intelligenza di Google e molto altro ancora.
Insieme al resto del Kit Voice, riteniamo che l'SDK dell'Assistente Google possa fornire molte nuove opportunità per creare progetti divertenti e coinvolgenti. I maker hanno già iniziato a sperimentare con l'SDK, inclusa la progettazione di un miscelatore per cocktail analcolici.


Il Voice Kit verrà spedito a tutti gli abbonati alla MagPi Magazine il 4 maggio 2017 e la lista delle parti, le istruzioni per l'assemblaggio, il codice sorgente nonché le estensioni suggerite sono disponibili sul nostro sito web aiyprojects.withgoogle.com. Il kit completo è in vendita anche in oltre 500 negozi di Barnes & Noble a livello nazionale, così come presso i rivenditori del Regno Unito, WH Smith, Tesco, Sainsbury e Asda.
Questo è solo il primo progetto AIY, ce ne sono altri in fase di preparazione, ma per noi è molto utile sapere come desideri integrare l'AI nei tuoi progetti. Visita hackster.io per condividere le tue esperienze e discutere di progetti futuri. Usa #AIYprojects sui social media per aiutarci a trovare le tue invenzioni.





Pubblicato da Jamal Eason, Product Manager, Android

Giusto in tempo per Google I/O 2017, siamo riusciti a presentare l'anteprima di Android Studio 3.0, disponibile per il download sul canale della versione canary. Android Studio è il nostro IDE ufficiale, creato appositamente per Android, e quindi noi continuiamo a rafforzare il nostro investimento. Il set di funzionalità di Android Studio è incentrato su come accelerare il flusso di sviluppo delle app e come fornire i più recenti strumenti creati per la piattaforma Android.

Per accelerare il flusso di sviluppo, Android Studio 3.0 include tre funzionalità principali: una nuova suite di strumenti per il profiling delle prestazioni delle app che consente di diagnosticare rapidamente i problemi relativi alle prestazioni, il supporto per il linguaggio di programmazione Kotlin, e le velocità incrementate di compilazione di Gradle per i progetti di app di grandi dimensioni. Inoltre, Android Studio 3.0 si integra perfettamente con lo sviluppo della piattaforma Android grazie a queste caratteristiche chiave aggiuntive: supporto per lo sviluppo di Instant App, inclusione del Google Play Store nelle immagini del sistema dell'emulatore Android O e le nuove procedure guidate per lo sviluppo di Android O. Questa prima versione canary di Android Studio 3.0 offre complessivamente più di 20 nuove funzionalità.

Abbiamo tranquillamente replicato molte di queste caratteristiche nell’ambito dei canary di Android Studio 2.4. Oggi denominiamo questa versione Android Studio 3.0 perché ci siamo resi conto di aver aggiunto molte funzioni importanti e introdotto una modifica drastica (insolita) nel plugin Android Gradle per migliorare la scalabilità e i tempi di compilazione. Se vuoi lavorare in Android O, creare un'Instant App, iniziare a sviluppare con il linguaggio Kotlin o usare gli ultimissimi strumenti di prestazione delle app Android per migliorare la qualità della tua app, allora scarica Android Studio 3.0 Canary 1 oggi stesso.
Android DevByte - Novità per Android Studio 3.0 Canary 1


Per ulteriori dettagli sulle nuove funzionalità di questa prima versione canary di Android Studio 3.0, leggi il seguente articolo, organizzato in base alle fasi chiave del flusso di sviluppo.

Sviluppo


  • Linguaggio di programmazione Kotlin: a grande richiesta, da ora Android Studio 3.0 include il supporto per Kotlin. Grazie a questo nuovo supporto, puoi facilmente aggiungere il codice Kotlin al codice già esistente per le app Android e avere accesso a tutti gli ottimi strumenti di sviluppo offerti da Android Studio. Puoi decidere se aggiungere Kotlin al tuo progetto utilizzando lo strumento di conversione incorporato disponibile in CodeConvert Java File to Kotlin File o creare un progetto abilitato a Kotlin con la procedura guidata Nuovo progetto. Per saperne di più sul linguaggio Kotlin, consulta il supporto in Android e Android Studio.

Conversione del linguaggio Kotlin in Android Studio


  • Caratteristiche del linguaggio Java 8: continuiamo a lavorare sul supporto per le caratteristiche del linguaggio Java 8 e le relative API. A causa della recente interruzione della toolchain Jack e la migrazione alla toolchain basata su javac, è possibile accedere a caratteristiche come Instant Run per i progetti che utilizzano le funzionalità del linguaggio Java 8 in Android Studio. Per aggiornare il progetto affinché supporti la nuova toolchain per il linguaggio Java 8, basta aggiornare i livelli di compatibilità di Source e Target a 1.8 nella finestra di dialogo Project Structure. Per saperne di più.
Aggiornamento della finestra di dialogo Project Structure per il linguaggio Java 8




  • Layout Editor: in questa versione di Android Studio sono disponibili ulteriori miglioramenti al Layout Editor. Abbiamo aggiornato la struttura ad albero con inserimenti migliori di trascinamento delle visualizzazioni e un nuovo pannello per gli errori. In parallelo con l'aggiornamento di ConstraintLayout, il Layout Editor supporta anche la creazione di Barriere, Gruppi, e ottimizza la Chain Creation. Per saperne di più.
Struttura ad albero e pannello di avviso del Layout Editor



  • Procedura guidata Icona adattiva: Android O introduce icone di avvio adattive, che possono essere visualizzate in forme diverse nei diversi dispositivi Android. La nuova procedura guidata Icona di avvio adattiva crea asset nuovi e legacy dell'icona di avvio e fornisce anteprime di come questa apparirà nelle diverse maschere dello schermo di avvio. Per creare un nuovo asset facendo clic con il pulsante destro del mouse sulla cartella /res del progetto, vai a → NewImage AssetLauncher Icons (Adaptive and Legacy) Per saperne di più.
Procedura guidata Icona adattiva



  • Font XML e font scaricabili: l'aggiunta di font personalizzati all'app (disponibile quando si tratta di Android O) è ancora più semplice con gli strumenti di anteprima dei font XML e gli strumenti di selezione dei font in Android Studio. Puoi anche creare una risorsa di font scaricabili per l'app. L'utilizzo di font scaricabili consente di utilizzare un font personalizzato nell'app evitando il bundling di una risorsa di font nell'APK. Per utilizzare i font scaricabili, assicurati che il dispositivo o l'emulatore esegua Google Play Services v11.2.63 o superiore. Per saperne di più.
Selettore di risorse di font scaricabili

Anteprima dei font XML




  • Supporto per Android Things: grazie ad Android Studio 3.0, puoi iniziare a sviluppare nell'ambito di Android Things con un nuovo set di modelli nella procedura guidata Nuovo progetto e nella procedura guidata Nuovo modulo. Android Things ti consente di estendere le tue competenze di sviluppo Android ai dispositivi Internet of Things (IoT). Per saperne di più.

Procedura guidata Nuovo modulo di Android Things 




  • Aggiornamento della piattaforma IntelliJ: Android Studio 3.0 Canary 1 comprende la versione IntelliJ 2017.1, che dispone di funzionalità quali: refactoring del linguaggio Java 8, suggerimenti di parametri, evidenziazione semantica, breakpoint trascinabili, ricerca avanzata di controllo delle versioni e altro ancora. Per saperne di più.

Compilazione

  • Supporto per le app istantanee: grazie ad Android Studio 3.0, puoi creare delle Instant Apps nel tuo progetto. Le Instant Apps sono app Android leggere che possono essere utilizzate senza essere installate sul dispositivo. Per supportarle, Android Studio offre due nuovi tipi di moduli: app istantanea e funzionalità. Parallelamente a una nuova azione di refactoring di divisione in moduli e all'App Links Assistant, Android Studio ti consente di trasformare l'app in un'app istantanea. Per utilizzarlo, vai alla procedura guidata Nuovo modulo o fai clic con il pulsante destro del mouse su una classe e seleziona RefactorModularize. Per saperne di più.

Procedura guidata Modulo app istantanea



  • Miglioramenti alla velocità di compilazione: continuiamo a investire per ottenere una maggiore velocità di compilazione. Per questa versione, ci siamo concentrati su aumento della velocità per i progetti costituiti da molti moduli. Per ottenere questi miglioramenti e per supportarne altri futuri, abbiamo apportato modifiche drastiche alle API del plugin Android Gradle utilizzato da Android Studio. Pertanto, se ti basavi sulle API fornite dal plugin precedente, ora dovrai convalidare la compatibilità con il nuovo plugin e migrare le API applicabili. Per testarle, aggiorna la versione del plugin nel tuo file build.gradle. Per saperne di più.



build.gradle

dependencies { classpath 'com.android.tools.build:gradle:3.0.0-alpha1' }
  • Repository Maven di Google: anche in questo caso, a grande richiesta, ora distribuiamo le dipendenze Maven della Android Support Library al di fuori dell'SDK Manager di Android in un nuovo repository Maven. Per chi sviluppa con un sistema di Integrazione continua (CI), ciò dovrebbe rendere più facile la gestione delle dipendenze di Maven. Utilizzate in combinazione con l'ultimo strumento della riga di comando SDK Manager e Gradle, le build CI dovrebbero essere più facili da gestire grazie al Repository Maven di Google. Per utilizzare la nuova posizione Maven, aggiungi il seguente URL al file del modulo della tua app build.gradle. Per saperne di più.
build.gradle
repositories { maven { url "https://maven.google.com" } }



    Testing e debug

    • Immagini di sistema di Google Play: oltre all'aggiornamento alla versione beta di Android O, abbiamo aggiornato le immagini di sistema di Android Emulator O per includere il Google Play Store. La creazione di bundling nel Google Play Store ti consente di eseguire il testing end-to-end di app con Google Play ed è una soluzione pratica per mantenere aggiornati i servizi di Google Play nel tuo Android Virtual Device (AVD). Proprio come per gli aggiornamenti dei servizi di Google Play su dispositivi fisici, puoi attivare gli stessi aggiornamenti per gli AVD.
    Google Play Store nell'Android Emulator



    Aggiornamento di Google Play Services nell'Android Emulator




    Per garantire la sicurezza delle app e un'esperienza uniforme con i dispositivi fisici, le immagini di sistema dell'emulatore incluse nel Google Play Store sono firmate da una chiave di rilascio. Ciò significa che non sarai in grado di ottenere privilegi elevati. Pertanto, se hai bisogno di privilegi a questo livello (root) per la risoluzione di problemi relativi all'app, puoi utilizzare le immagini del sistema dell'emulatore Android Open Source Project (AOSP) che non includono app o servizi Google. Per iniziare, assicurati di utilizzare Android Emulator v26.1 o superiore e l'ultima API 24 o superiore per le immagini di sistema, quindi crea un nuovo AVD con l'icona di Google Play accanto alla definizione del dispositivo. Per saperne di più.


    Android Virtual Device Manager con il supporto Google Play Store 





    • Supporto per OpenGL ES 3.0 nell'Android Emulator: nell'ambito dei nostri continui stanziamenti per rendere l'esperienza di sviluppo sempre più rapida, presentiamo l'ultima versione di Android Emulator con il supporto di OpenGL ES 3.0 per le immagini di sistema di Android O nonché gli altri miglioramenti importanti alle prestazioni grafiche di OpenGL ES 2.0 per le immagini del sistema di emulatori meno recenti. La maggior parte delle schede grafiche moderne su tutti i sistemi operativi supporta l'accelerazione di OpenGL ES 2.0. Per utilizzare OpenGL ES 3.0 con l'Android Emulator, il tuo computer di sviluppo necessita di una scheda grafica di GPU host che supporti OpenGL 3.2 o versione successiva in Microsoft® Windows® o Linux (con supporto per Apple MacOS® in futuro). Per saperne di più.


    OpenGL ES 3.0 nell'Android Emulator




    • App Bug Reporter nell'Android Emulator: per segnalare i bug presenti nell'app, abbiamo aggiunto un metodo più semplice che genera segnalazioni di bug con tutte le impostazioni di configurazione e lo spazio necessari per documentare i tuoi passaggi di riproduzione. Inoltre, per condividere un bug specifico dell'emulatore con il team di Android, abbiamo aggiunto un link per generare rapidamente un bug nell'Issue Tracker di Android. Per utilizzare questa funzionalità, vai a Emulator Tool BarExtended ControlsHelpEmulator HelpFile a Bug. Per saperne di più.

    Segnalazioni di bug dell'app nell'Android Emulator


    • Supporto proxy in Android: per chi usa un proxy HTTP per accedere a Internet, abbiamo aggiunto un'interfaccia utente che consente di gestire le impostazioni proxy utilizzate dall'emulatore. Per valore predefinito, l'Android Emulator utilizzerà le impostazioni di Android Studio, che però potrai ignorare durante la configurazione della rete. Per eseguire questa operazione, vai a Extended ControlsSettingsProxy.
    Impostazioni proxy dell'Android Emulator


    • Controlli di moto rotatorio per Android nell'Android Emulator: l'Android Emulator ora supporta i controlli di moto rotatorio per le immagini di sistema dell'emulatore Android Wear 2.0. Ora è più facile testare le app per i dispositivi Android Wear che includono lo scorrimento per l'input del moto rotatorio. Per abilitarlo, crea un Emulator AVD per Android Wear e il pannello Rotary Input (input di moto rotatorio) apparirà in Extended controls. Per saperne di più.

    Input di moto rotatorio nell'Android Emulator



    • Debug dell'APK: per chi desidera eseguire il debug di un APK senza sviluppare il proprio progetto in Android Studio, la versione Android Studio 3.0 offre la possibilità di eseguire il debug di qualsiasi APK. Questa funzionalità è particolarmente utile per chi utilizza il codice Android C++ in un altro ambiente di sviluppo ma vuole eseguire il debug e analizzare l'APK nel contesto di Android Studio. Se disponi di una versione debuggable dell'APK, puoi utilizzare le nuove funzionalità di debug per analizzare, profilare ed eseguire il debug dell'APK. Inoltre, se hai accesso alle origini dell'APK, puoi collegarle al flusso di debug dell'APK per un'operazione di debug più affidabile. Per iniziare, basta selezionare Profile or debug APK dalla Schermata iniziale di Android o Studio in File → Profile or debug APKPer saperne di più.

    Profile or Debug an APK (Eseguire il profiling o debug di un APK)


    Debug dell'APK


    • Layout Inspector: noterai che il Layout Inspector ora presenta alcuni miglioramenti aggiuntivi in Android 3.0 che rendono più agevole il debug di problemi relativi ai layout delle app. Uno di questi è un migliore raggruppamento delle proprietà in categorie comuni e un altro è la funzionalità di ricerca presente sia nell'albero di visualizzazione sia nei pannelli delle proprietà. Quando l'app è in esecuzione, accedi al Layout Inspector tramite ToolsAndroidLayout Inspector. Per saperne di più.
    Layout Inspector


    • Device File Explorer: dopo aver eseguito il porting da DDMS ad Android Studio (a grande richiesta), il nuovo Device File Explorer ora consente di visualizzare la struttura dei file e delle directory del dispositivo Android o dell'emulatore. Durante il testing dell'app, puoi velocemente visualizzare in anteprima e modificare i file di dati delle app direttamente in Android Studio.

    Device File Explorer



    Ottimizzazione

    • Android Profiler: Android Studio 3.0 include una nuova suite di strumenti per risolvere problemi di prestazioni all'interno dell'app. Abbiamo completamente riscritto il precedente set di strumenti Android Monitor e lo abbiamo sostituito con Android Profiler. Dopo aver distribuito l'app su un dispositivo o un emulatore in esecuzione, fai clic sulla scheda Android Profiler così avrai accesso a una visualizzazione unificata in tempo reale delle attività della CPU, memoria e rete dell'app. Ogni evento di prestazione è mappato sulla timeline dell'evento dell'UI per evidenziare gli eventi di tocco, le pressioni dei tasti e i cambiamenti di attività in modo da avere basi più solide per sapere quando e perché sia avvenuto un determinato evento.  Fai clic su ogni timeline per scoprire ogni aspetto delle prestazioni della tua app. Per saperne di più

    Android Profiler - Visualizzazione della timeline combinata

    • CPU Profiler: l'elaborazione non necessaria della CPU e le punte di carico sono un sintomo delle scarse prestazioni di un'app. Grazie al CPU Profiler, puoi analizzare l'utilizzo di thread della CPU dell'app attivando un esempio o una traccia CPU instrumentata. Pertanto, puoi risolvere i problemi relativi alle prestazioni della CPU utilizzando svariate visualizzazioni di dati e filtri integrati nel CPU Profiler. Per saperne di più.

    CPU Profiler


    • Memory Profiler: l'utilizzo inefficiente della memoria può portare a molti problemi nei dispositivi, che vanno da un'UI janky a eventi di memoria insufficiente. Il Memory Profiler unisce le funzionalità dei precedenti Heap Viewer e Allocation Tracker in un'interfaccia ricca di funzionalità per contribuire a risolvere i problemi di utilizzo della memoria nell'app. Puoi diagnosticare una serie di problemi di memoria analizzando le allocazioni di memoria, i dump di heap e altro ancora. Per saperne di più.

    Memory Profiler



    • Network Profiler: l'ottimizzazione dell'utilizzo della rete in primo piano e in background può portare a un'app più performante e a una riduzione dell'utilizzo dei dati. Il Network Profiler consente di monitorare l'attività di rete dell'app, controllare il payload di ciascuna delle tue richieste di rete e di collegarti alla riga del codice sorgente che ha generato una particolare richiesta. Attualmente il Network profiler funziona con le librerie di rete HttpURLConnection, OkHttp e Volley. Il Network Profiler è una funzionalità di analisi avanzata che può essere attivata su tutti i dispositivi o emulatori antecedenti ad Android O, selezionando Enable Advanced Profiling nella scheda Profiling della casella Run Configuration. Oltre ad abilitare le richieste di rete e l'analisi di payload, questa casella di controllo consente la raccolta di eventi di livello superiore, il conteggio degli oggetti di memoria e la garbage collection della memoria. Per l'emulatore e i dispositivi basati su Android O, basta distribuire l'app. Per saperne di più.
    Network Profiler




    Configurazione del Network Profiler per i dispositivi antecedenti ad Android O


    • Miglioramenti all'APK Analyzer: in Android Studio 3.0, abbiamo aggiunto altri miglioramenti all'APK Analyzer per consentirti di ottimizzare ulteriormente le dimensioni dell'APK. Con questo aggiornamento delle funzionalità, da ora puoi analizzare i file zip di Instant App e AAR nonché visualizzare il bytecode dex di classi e metodi. Puoi anche generare regole di configurazione Proguard e caricare file di mapping Proguard nel visualizzatore dex. Per saperne di più.

    APK Analyzer
    Per ulteriori informazioni, ti segnaliamo queste note sulla versione.

    Come iniziare  

    Download

    Se utilizzi una versione precedente di Android Studio, puoi installare Android Studio 3.0 Canary 1 affiancandolo alla tua versione stabile. Puoi scaricare questo aggiornamento dalla pagina ufficiale di download dell'Anteprima di Android Studio. Come accennato prima, abbiamo apportato modifiche drastiche alle API del plugin Android Gradle per supportare le nuove funzionalità nell'IDE. Dovresti quindi anche aggiornare la versione di plugin per Android Gradle a 3.0.0-alpha1 nel progetto corrente per verificare e convalidare l'installazione del progetto dell'app.


    Non farci mancare il tuo feedback su ciò che ti piace di più, su eventuali problemi o funzioni che ti piacerebbe analizzare. Se rilevi un bug o qualcos'altro, non esitare a segnalarci il problema. Resta in contatto con noi, il team di sviluppo di Android Studio, sulla nostra pagina Google+ o su Twitter.