Negli ultimi 10 anni, i dati relativi all'assistenza sanitaria sono passati da prevalentemente cartacei a ...


Negli ultimi 10 anni, i dati relativi all'assistenza sanitaria sono passati da prevalentemente cartacei a quasi completamente digitalizzati nelle cartelle cliniche elettroniche. Ma dare un senso a questi dati non è semplice, per diversi motivi. Innanzitutto, non esiste una rappresentazione comune dei dati tra i fornitori: ognuno struttura i propri dati in modo diverso. Secondo, anche i siti che utilizzano lo stesso fornitore possono differire in modo significativo, ad esempio, utilizzando codici diversi per lo stesso farmaco. Terzo, i dati possono essere presenti su svariate tabelle, alcune contenenti le visite, alcune i risultati di laboratorio e altre ancora i segni vitali.

Lo standard di Fast Healthcare Interoperability Resources (FHIR) punta a risolvere la maggior parte di queste problematiche: offre un modello di dati solido ma estensibile, basato su standard Web consolidati, che sta rapidamente diventando lo standard de-facto sia per quanto riguarda le singole cartelle che per l'accesso ai dati in blocco. Per abilitare il machine learning su larga scala, avevamo bisogno di apportare altri miglioramenti: implementazioni in vari linguaggi di programmazione, un modo efficiente per serializzare grandi quantità di dati su disco e una rappresentazione che consentisse l'analisi di grandi set di dati.

Oggi siamo lieti di offrire l'implementazione del Protocol Buffer open source dello standard FHIR che risolve questi problemi. La versione corrente supporta Java, e il supporto per C ++, Go e Python seguiranno presto. Seguirà anche a breve il supporto per i profili oltre agli strumenti per convertire i dati legacy in FHIR.

FHIR come modello dei dati principali
Negli ultimi anni, durante la nostra collaborazione con centri medici accademici per applicare il machine learning alle cartelle mediche de-identificate, è risultato evidente che dovevamo risolvere la complessità dei dati sanitari senza esitazioni. Infatti, affinché il machine learning sia efficace per le cartelle mediche, dobbiamo possedere un quadro completo dell'anamnesi di ciascun paziente. E come bonus, vogliamo una rappresentazione dei dati che sia direttamente applicabile in un contesto clinico.

Anche se lo standard FHIR soddisfa la maggior parte delle nostre esigenze, rendendo la gestione dei dati sanitari molto più semplice rispetto alle strutture di dati "legacy" e abilitando il machine learning su larga scala indipendentemente dai fornitori, riteniamo che l'introduzione dei Protocol Buffer possa aiutare sia gli sviluppatori di applicazioni sia i ricercatori (machine learning) che adoperano FHIR.

Versione corrente dei Protocol Buffer
Ci siamo impegnati a rendere la rappresentazione dei Protocol Buffer adatta sia per l'accesso programmatico che per le query dei database. Uno degli esempi forniti mostra come caricare i dati FHIR in BigQuery Google Cloud e renderli disponibili per le query, e stiamo aggiungendo altri esempi caricati direttamente dall'esportazione dei dati in blocco. I nostri Protocol Buffer aderiscono allo standard FHIR (sono infatti generati automaticamente da esso) ma creano query più eleganti.

La versione corrente non include ancora il supporto per l'addestramento dei modelli TensorFlow ma non perderti gli aggiornamenti futuri. Miriamo a rendere il nostro lavoro recente il più open-source possibile per ottenere una ricerca più riproducibile e applicabile agli scenari del mondo reale. Stiamo anche lavorando a stretto contatto con i colleghi di Google Cloud su ulteriori strumenti per la gestione dei dati sanitari su larga scala.

Riconoscimenti
Abbiamo apprezzato le discussioni e gli utili feedback della community FHIR, tra cui quelli di Grahame Grieve, Ewout Kramer, Josh Mandel e di molti altri. Grazie ai nostri colleghi di DeepMind, al Google Brain team e ai nostri collaboratori accademici.

Pubblicato da Brad Abrams, Group Product Manager, e Chris Ramsdale, Product Manager
Anche se sono passate solo poche settimane dalla pubblicazione di un nuovo set di funzionalità ...
Pubblicato da Brad Abrams, Group Product Manager, e Chris Ramsdale, Product Manager
Anche se sono passate solo poche settimane dalla pubblicazione di un nuovo set di funzionalità per Actions on Google, al South by Southwest (SXSW) abbiamo offerto nuovi aggiornamenti.

Il SXSW riunisce i creativi interessati a fondere marketing e tecnologia, perciò quale miglior modo di inaugurare il festival se non con le nuove funzionalità mirate alla creatività e alla realizzazione di un nuovo tipo di Actions che consentono agli utenti di fare di più?

Supporto per la riproduzione multimediale e migliori caroselli di contenuti


L'anno scorso molti sviluppatori ci hanno riferito che desiderano offrire eccellenti esperienze multimediali con Actions. Sebbene gli utenti dell’Assistente possano già rilevare i podcast, la nostra nuova API di risposta multimediale consente di sviluppare Actions conversazionali più incisive e coinvolgenti che includono, ad esempio, clip da programmi TV, storie interattive, meditazione, suoni rilassanti e notiziari.

I tuoi utenti possono controllare la riproduzione audio su altoparlanti con attivazione vocale come Google Home, telefoni Android e altri nuovi dispositivi in arrivo. Sui telefoni Android possono persino utilizzare i comandi nell'area di notifica del telefono e nella schermata di blocco.

Alcuni degli sviluppatori che già adoperano la nostra nuova API di risposta multimediale includono The Daily Show, Calm e CNBC.

Per ulteriori informazioni su come iniziare a utilizzare questa API di risposta multimediale, consulta la documentazione.

Se hai soprattutto contenuti visivi piuttosto che audio, stiamo per introdurre anche un carosello di navigazione per le Actions che consente di mostrare contenuti navigabili - ad esempio prodotti, ricette, luoghi - con un'esperienza visiva di semplice scorrimento da sinistra a destra. Guarda un esempio di come potrebbe apparire ai tuoi utenti e, per ulteriori informazioni, sfoglia questo carosello.

Aggiornamenti quotidiani e notifiche push sui telefoni, ora disponibili per i tuoi utenti


Anche se è importante che gli utenti abbiano un'ottima esperienza, vogliamo assicurarci che tu disponga degli strumenti necessari per ricoinvolgerli e farli tornare a provare ciò che hai creato per loro. A tal proposito, alcuni mesi fa abbiamo introdotto le notifiche push e gli aggiornamenti giornalieri nell'anteprima degli sviluppatori.

A partire da oggi i tuoi utenti avranno accesso a questa funzionalità. Esquire la sta già usando per inviare "consigli saggi" quotidiani, Forbes per la citazione del giorno e SpeedyBit per gli aggiornamenti giornalieri dei prezzi della criptovaluta e tenere gli utenti al corrente sulle fluttuazioni di mercato.

Invia un'Action per la revisione, con le notifiche push attivate e gli aggiornamenti quotidiani e, quando sarà approvata, i tuoi utenti potranno scegliere questo percorso per farsi ricoinvolgere. Per ulteriori informazioni, consulta la documentazione.

Crea esperienze connesse sull'Assistente Google per gli utenti paganti nella tua app Android


Actions for Google ora consente di accedere ad acquisti digitali (compresi acquisti di app a pagamento, acquisti in-app e abbonamenti in-app) che gli utenti effettuano dalla tua app Android. Così facendo, puoi riconoscere quando interagisci con un utente che ha pagato per un'esperienza premium sulla tua app Android, e allo stesso modo offrire quell'esperienza nella tua Action su tutti i dispositivi.

E la parte migliore? Tutto ciò avviene dietro le quinte, perciò l'utente non deve compiere ulteriori azioni, come effettuare l'accesso, per usufruire di questa esperienza. Come nel caso di Economist Espresso che ora sa quando un utente ha già pagato l'abbonamento con Google Play e quindi gli offre un'esperienza aggiornata tramite la sua Action.

Un nuovo modo per rendere più disponibile l'Assistente Google incorporato


A dicembre dello scorso anno abbiamo annunciato l'aggiunta di azioni incorporate per dispositivi nell'SDK Assistente Google per dispositivi. Questa funzione consente agli sviluppatori di estendere qualsiasi Assistente Google incorporato nel loro dispositivo utilizzando le caratteristiche e le sintassi mantenute da Google e in gran parte focalizzate sull'automazione domestica. Ad esempio "accendi", "spegni" e "abbassa la temperatura".

Oggi siamo lieti di annunciare l'aggiunta di Custom Device Actions, ossia azioni per dispositivi più flessibili, che consentono agli sviluppatori di specificare le sintassi e i comandi che il loro dispositivo deve eseguire. Una volta create queste Custom Device Actions, gli utenti saranno in grado di attivare funzionalità specifiche attraverso l'Assistente Google. Ciò induce comportamenti più naturali negli utenti che interagiscono con i dispositivi abilitati all'Assistente, inclusa la possibilità di utilizzare funzionalità più specifiche del dispositivo.

Prima

"Ok Google, accendi il forno"

"Ok, sto accendendo il forno"

Dopo

"Ok Google, imposta il forno ventilato e preriscaldalo a 175 gradi"

"Ok, sto impostando il forno ventilato e lo sto preriscaldando a 175 gradi"

Per vedere come potrebbe funzionare nel mondo reale, dai un'occhiata al prototipo Talk to the Light creato dall'innovativo team Red Paper Heart, che ci mostra un uso divertente di questa funzionalità. Poi, consulta la documentazione per scoprire come iniziare a creare per i tuoi dispositivi. Ti mostriamo un case study tecnico di Red Paper Heart e il loro repository di codice per vedere come lo hanno realizzato.

Oltre alle Custom Device Actions abbiamo anche integrato la registrazione dei dispositivi nella console di Actions on Google per permettere agli sviluppatori di divenire operativi più rapidamente. Per iniziare, vai a vedere la documentazione e la console più recenti.

Alcune esplorazioni creative per ispirarti


Abbiamo collaborato anche con altri team all'avanguardia per esplorare il potenziale creativo della piattaforma Actions on Google. Dopo gli esperimenti vocali di Google Creative Lab di alcuni mesi fa, i seguenti team hanno rilasciato quattro nuovi esperimenti:

Il codice per tutte queste Actions è open source ed è accompagnato da case study tecnici approfonditi da parte di ciascun team che condivide ciò che ha appreso durante lo sviluppo.

Case study di Actions realizzati con Dialogflow


Pronto per creare? Vieni a vedere i nostri tre nuovi case study con KLM Royal Dutch Airlines, Domino's e Ticketmaster. Scopri il loro percorso di sviluppo con Dialogflow e in quale modo le Actions create li aiutano a tenersi al passo con la tecnologia conversazionale, a essere presenti per i loro clienti e a fornire assistenza durante tutta l'esperienza dell'utente:

Ci auguriamo che questi aggiornamenti stimolino la tua creatività e ti ispirino a realizzare ancora più Actions e incorporare l'Assistente Google su altri dispositivi. Non dimenticare che, una volta pubblicata la tua prima Action, puoi iscriverti al nostro programma della community*, ricevere l'esclusiva maglietta Assistente Google e fino a 300 $ in credito mensile con Google Cloud! Grazie della tua partecipazione alla nostra community e, come sempre, se hai idee o richieste che vorresti condividere con il team, non esitare a intervenire nella conversazione.

*Alcuni paesi non sono ammessi al programma della community degli sviluppatori, consulta i termini e le condizioni.



Da qualche settimana le ...


Da qualche settimana le Cloud TPU sono disponibili in versione beta sulla Google Cloud Platform (GCP) per consentire agli esperti in materia di machine learning (ML) di addestrare ed eseguire i loro modelli ML più velocemente.
Le Cloud TPU sono una famiglia di acceleratori hardware progettati da Google e ottimizzati per accelerare e scalare specifici carichi di lavoro ML programmati con TensorFlow. Costruita con quattro ASIC personalizzati, ogni Cloud TPU combina fino a 180 teraflop di prestazioni in virgola mobile e 64 GB di memoria ad alta larghezza di banda su una singola scheda. Queste schede possono essere utilizzate da sole o collegate tra loro tramite una rete dedicata ultraveloce per formare supercomputer multi-petaflop ML che chiamiamo "pod TPU". Offriremo questi avanzatissimi supercomputer su GCP entro la fine dell'anno.

Abbiamo progettato le Cloud TPU con lo scopo di offrire prestazioni differenziate in base al costo per carichi di lavoro TensorFlow mirati e consentire agli ingegneri e ai ricercatori in ambito ML di effettuare iterazioni più rapide, ad esempio:

  • Invece di aspettare che un lavoro venga pianificato su un cluster di elaborazione condiviso, è possibile avere l'accesso interattivo ed esclusivo a una Cloud TPU collegata alla rete tramite una VM Google Compute Engine che puoi controllare e personalizzare. 
  • Anziché impiegare giorni o settimane ad addestrare un modello ML critico per la tua attività, è possibile addestrare diverse varianti dello stesso modello nell'arco di una notte su una flotta di Cloud TPU e implementare in produzione il più preciso modello addestrato il giorno successivo. 
  • Usando una singola Cloud TPU e seguendo questo tutorial, puoi addestrare ResNet-50 alla precisione prevista per la sfida benchmark ImageNet in meno di un giorno, il tutto per meno di 200 $! 

Addestramento del modello ML semplificato

In passato scrivere programmi per ASIC e i supercomputer personalizzati richiedeva competenze altamente specializzate. Ora invece è possibile programmare le Cloud TPU con API TensorFlow di livello elevato e utilizzare una serie di implementazioni di modelli Cloud TPU ad alte prestazioni di riferimento per iniziare subito.


Per farti risparmiare tempo e lavoro, testiamo continuamente le implementazioni del modello sia per quanto riguarda le prestazioni che la convergenza alla precisione prevista su set di dati standard.

Nel corso del tempo offriremo ulteriori implementazioni del modello open-source. Alcuni esperti avventurosi nel campo del ML potrebbero essere in grado di ottimizzare altri modelli TensorFlow per le Cloud TPU per conto proprio utilizzando la documentazione e gli strumenti che forniamo.

Se inizi subito a sfruttare le Cloud TPU, potrai beneficiare di straordinari miglioramenti time-to-accuracy quando presenteremo i pod TPU alla fine dell'anno. Come annunciato al NIPS 2017, sia i tempi di addestramento di ResNet-50 che di Transformer si riducono da quasi una giornata intera a meno di 30 minuti su un pod TPU completo, e non sono necessarie modifiche al codice.

Two Sigma, una delle principali società di gestione di investimenti, è rimasta colpita dalle prestazioni e dalla facilità d'uso delle Cloud TPU.
"Abbiamo deciso di concentrare la nostra ricerca nell'ambito del deep learning sul cloud per molte ragioni, ma soprattutto per ottenere l'accesso all'ultimissima infrastruttura di machine learning. Le Cloud TPU di Google sono un esempio di tecnologia innovativa in rapida evoluzione che supporta il deep learning. Ci siamo resi conto che spostare carichi di lavoro TensorFlow sulle TPU ha aumentato la nostra produttività riducendo notevolmente la complessità della programmazione di nuovi modelli e il tempo necessario per addestrarli. L'utilizzo delle Cloud TPU al posto di cluster di altri acceleratori ci ha permesso di concentrarci sulla creazione di modelli senza farci distrarre dalla necessità di gestire la complessità dei pattern di comunicazione del cluster". 
Alfred Spector, Chief Technology Officer, Two Sigma

Una piattaforma ML scalabile


Le Cloud TPU semplificano anche la pianificazione e la gestione delle risorse di calcolo del ML:

  • Puoi fornire ai tuoi team accelerazione ML all'avanguardia e adeguare dinamicamente la capacità al variare delle loro esigenze. 
  • Invece di investire in capitale, tempo e competenze necessarie per progettare, installare e mantenere un cluster di calcolo ML in loco con requisiti di alimentazione, raffreddamento, networking e archiviazione specifici, puoi sfruttare un'infrastruttura ML su ampia scala fortemente integrata e altamente ottimizzata presso Google da molti anni.
  • Non dovrai più preoccuparti di mantenere i driver aggiornati su un vasto numero di workstation e server. Le Cloud TPU sono preconfigurate e non necessitano l'installazione dei driver!
  • Sei protetto dagli stessi sofisticati meccanismi e pratiche di sicurezza che salvaguardano tutti i servizi Google Cloud.

"Da quando lavoriamo con le Cloud TPU di Google, siamo molto colpiti dalla loro velocità: ciò che normalmente richiederebbe giorni, adesso richiede ore. Il deep learning sta diventando rapidamente la colonna portante del software per le auto a guida autonoma. I risultati migliorano con l'aumentare dei dati e ogni settimana vengono apportate importanti innovazioni agli algoritmi. In questo campo le Cloud TPU ci aiutano a progredire velocemente incorporando gli ultimi dati relativi alla navigazione del nostro parco veicoli e gli ultimi progressi algoritmici della comunità di ricerca.
Anantha Kancherla, Head of Software, Self-Driving Level 5, Lyft
A Google Cloud vogliamo fornire ai clienti il cloud migliore per ogni carico di lavoro ML e presto offriremo una varietà di CPU ad alte prestazioni (tra cui Intel Skylake) e GPU (inclusa Tesla V100 di NVIDIA) oltre alle Cloud TPU.

Come iniziare a usare le Cloud TPU


Al momento le Cloud TPU sono disponibili in quantità limitate e l'utilizzo è fatturato al secondo alla tariffa di 6,50 USD/Cloud TPU/ora.

Siamo contentissimi dell'entusiasmo manifestato dai clienti nei confronti delle Cloud TPU. Per meglio gestire la domanda, vi preghiamo di registrarvi qui per richiedere una quotazione Cloud TPU e descrivere le vostre esigenze in ambito ML. Faremo del nostro meglio per fornirvi l'accesso alle Cloud TPU il prima possibile

Pubblicato da Mike Sorvillo, Product Manager, Hangouts Chat e Wesley Chun (@wescpy), Developer Advocate, G Suite
Forse già sai che abbiamo annunciato le nuove funzionalità della ...
 Pubblicato da Mike Sorvillo, Product Manager, Hangouts Chat e Wesley Chun (@wescpy), Developer Advocate, G Suite
Forse già sai che abbiamo annunciato le nuove funzionalità della G Suite per trasformare il modo in cui i team operano, tra cui la Hangouts Chat, una nuova piattaforma di messaggistica per la collaborazione aziendale mobile e sul web. Forse ti interesserà ancora di più sapere che ora puoi creare le tue integrazioni con i bot usando la piattaforma e l'API Hangouts Chat.

Puoi creare bot per semplificare il lavoro: automatizzare le attività manuali o offrire agli utenti nuovi modi per connettersi alla tua applicazione, il tutto con comandi emessi da chat room o messaggi diretti (DM). Ecco alcune idee da considerare:
  • Creare un bot in grado di completare semplici attività o query per informazioni
  • Creare un bot in grado di inviare notifiche asincrone in qualsiasi chat room o DM
  • Usare le schede interattive dell'UI per dare vita alle tue risposte ai messaggi
  • Usare Google Apps Script per creare bot personalizzati per i tuoi colleghi o la tua organizzazione

Ad esempio, un bot può individuare la posizione di un utente, cercarla utilizzando l'API Google Maps e visualizzare la mappa risultante direttamente all'interno dello stesso thread di messaggi nella Hangouts Chat. L'output del bot nell'immagine sottostante è generato dall'integrazione del bot di Apps Script. Restituisce il payload JSON sotto la stessa immagine mostrata in questa pagina della documentazione.

Quando i messaggi vengono inviati a un bot di Apps Script, la funzione onMessage() viene chiamata e inoltrata a un oggetto evento. Il codice sottostante estrae il nome del bot oltre alla posizione richiesta dall'utente. La posizione viene quindi passata a Google Maps per creare la mappa statica e un URL openLink che porta l'utente direttamente a Google Maps se fa clic sulla mappa o sul link "Apri in Google Maps".
function parade(app) {
  var bot = e.message.annotations[0].userMention.user.displayName;
  var loc = encodeURI(e.message.text.substring(bot.length+2));
  var mapClick = {
    "openLink": {
      "url": "https://google.com/maps/search/?api=1&query=" + loc
    }
  };

  return {
    // see JSON payload in the documentation link above
  };
}

Infine, questa funzione restituisce tutto ciò di cui Hangouts Chat ha bisogno per eseguire il rendering della scheda UI presumendo che i giusti link, dati e la chiave dell'API Google Maps siano stati aggiunti al payload JSON della risposta. Potrebbe stupirti ma questo è l'intero bot e segue questa semplice formula: ricevere la richiesta dell'utente, raccogliere i risultati e rispondere all'utente.

Quando i risultati vengono restituiti immediatamente come in questo caso, allora lo chiamiamo bot sincrono. Non è necessario utilizzare l'API perché stai solo rispondendo alla richiesta HTTP. Se il tuo bot richiede tempi di elaborazione aggiuntivi o deve eseguire un flusso di lavoro fuori banda, restituisce immediatamente e pubblica una risposta asincrona quando sono state completate le operazioni in background con i dati da restituire. Qui puoi saperne di più sull'implementazione, sul flusso di lavoro e sulle risposte sincrone e asincrone del bot.

Gli sviluppatori non devono necessariamente usare Apps Script, anche se è forse uno dei modi più semplici per creare e distribuire bot. Infatti i bot possono essere scritti e ospitati su svariate piattaforme: Le chat room non servono più solo per le conversazioni. Con bot intelligenti e ricchi di funzionalità, gli utenti possono automatizzare attività, ottenere informazioni critiche o eseguire operazioni importanti utilizzando un semplice messaggio. Molte sono le potenzialità future che teniamo in serbo per gli sviluppatori e gli utenti G Suite della nuova piattaforma e dell'API Hangouts Chat.

Anuj Gosalia, Director of Engineering, AR
Con ARCore e Google Lens ci stiamo impegnando a rendere le fotocamere degli smartphone ancora più smart. ARCore consente agli sviluppatori di creare app in grado di comprendere il proprio ambiente e inserire oggetti e informazioni al suo interno. Google Lens utilizza la fotocamera per dare un senso a ciò che vediamo, sia che si tratti di generare automaticamente le informazioni di contatto da un biglietto da visita prima di perderlo o, prossimamente, di identificare la razza del bel cagnolino incontrato al parco. In occasione del Mobile World Congress, abbiamo lanciato ARCore 1.0 insieme al nuovo supporto per sviluppatori e abbiamo rilasciato aggiornamenti per Lens distribuendoli a un numero maggiore di persone.
Anuj Gosalia, Director of Engineering, AR
Con ARCore e Google Lens ci stiamo impegnando a rendere le fotocamere degli smartphone ancora più smart. ARCore consente agli sviluppatori di creare app in grado di comprendere il proprio ambiente e inserire oggetti e informazioni al suo interno. Google Lens utilizza la fotocamera per dare un senso a ciò che vediamo, sia che si tratti di generare automaticamente le informazioni di contatto da un biglietto da visita prima di perderlo o, prossimamente, di identificare la razza del bel cagnolino incontrato al parco. In occasione del Mobile World Congress, abbiamo lanciato ARCore 1.0 insieme al nuovo supporto per sviluppatori e abbiamo rilasciato aggiornamenti per Lens distribuendoli a un numero maggiore di persone.

ARCore, l'SDK di realtà aumentata di Google per Android, è in anteprima e verrà lanciato in versione 1.0. Gli sviluppatori possono ora pubblicare app AR sul Play Store, e questo è davvero un ottimo momento per iniziare a creare. ARCore opera su 100 milioni di smartphone Android, che dispongono tutti di funzionalità AR avanzate. Attualmente funziona su 13 modelli diversi (Pixel, Pixel XL, Pixel 2 e Pixel 2 XL di Google; Galaxy S8, S8+, Note8, S7 e S7 edge di Samsung; V30 e V30+ (solo con Android O) di LGE; Zenfone AR di ASUS; OnePlus 5 di OnePlus). Oltre a quelli elencati, stiamo collaborando con molti produttori per abilitare i loro prossimi dispositivi entro l'anno, tra cui: Samsung, Huawei, LGE, Motorola, ASUS, Xiaomi, HMD/Nokia, ZTE, Sony Mobile, Vivo.

Far funzionare ARCore su più dispositivi è solo un aspetto della questione. Infatti, ora offriamo agli sviluppatori ulteriori miglioramenti e supporto per velocizzare e semplificare il loro processo di sviluppo AR. ARCore 1.0 fornisce una migliore comprensione ambientale, che consente agli utenti di posizionare risorse virtuali su superfici strutturate, come poster, mobili, scatole dei giocattoli, libri, lattine e altro ancora. Android Studio Beta ora supporta ARCore in Emulator permettendoti quindi di testare velocemente la tua app in un ambiente virtuale direttamente dal tuo desktop.

Tutti dovrebbero poter provare la realtà aumentata, quindi ci stiamo impegnando per portarla alle persone ovunque si trovino, inclusa la Cina. Supporteremo ARCore in Cina sui dispositivi dei partner venduti lì, a partire da Huawei, Xiaomi e Samsung, per consentire loro di distribuire app AR sui rispettivi app store.

Collaboriamo con alcuni grandi sviluppatori per presentare il modo in cui pensano di utilizzare AR nelle loro app. Snapchat ha creato un'esperienza coinvolgente che invita in un "portale", in questo caso il leggendario stadio Camp Nou dell'FC Barcelona. Sotheby's International Realty ti consente di visualizzare gli interni delle stanze dentro casa tua. Oppure, goditi la Porsche Mission E Concept nel tuo vialetto di casa e scopri come funziona. Con OTTO AR, hai la possibilità di scegliere gli articoli di un esclusivo set di mobili e posizionarli, in scala reale, in una stanza. È in arrivo anche Ghostbusters World che si basa sulla serie di film. In Cina, Easyhome Homestyler ti permette di posizionare i mobili e oltre 100.000 altri articoli, quando fai acquisti su JD.com puoi vedere gli oggetti per poi sistemarli in casa, e con NetEase, Wargaming e Game Insight puoi divertirti a giocare.

Con Google Lens, la fotocamera del telefono ti aiuta a capire il mondo circostante. Stiamo ampliando la disponibilità dell'anteprima di Google Lens. Con Lens in Google Foto, quando scatti una foto, puoi ottenere più informazioni su ciò che vedi nella tua foto. Nelle prossime settimane, Lens sarà disponibile in lingua inglese per tutti gli utenti di Google Foto che dispongono della versione più recente dell'app su Android e iOS. Inoltre, nelle prossime settimane, gli utenti di lingua inglese potranno provare l'esperienza Lens basata su fotocamera nell'Assistente Google con i dispositivi di punta compatibili. Presto aggiungeremo il supporto anche per altri dispositivi.

Poiché è ancora in anteprima, abbiamo potuto continuare a migliorare Google Lens. Dal suo lancio abbiamo aggiunto funzionalità di selezione del testo, la possibilità di creare contatti ed eventi da una foto con un solo tocco e, nelle prossime settimane, un supporto migliorato per il riconoscimento di animali e piante comuni, come razze canine e fiori diversi.





Fotocamere più smart consentiranno ai nostri smartphone di fare di più. Grazie ad ARCore 1.0 gli sviluppatori possono iniziare a creare esperienze AR piacevoli e utili per loro già da adesso. E Lens, potenziato da intelligenza artificiale e visione artificiale, rende più facile ricercare e agire su ciò che vedi. Col progredire di queste tecnologie, saranno disponibili modi sempre nuovi per aiutare le persone a divertirsi e a ottenere di più dai propri telefoni.

Pubblicato da Barry Rosenberg, Google Engineering Education Team
Siamo felici di poter annunciare il Machine Learning Crash Course ( MLCC) al mondo intero. MLCC è uno dei corsi più popolari creato per gli ingegneri di Google. Il nostro team di formazione tecnica ha offerto questa possibilità a oltre 18.000 Googler e ora la offre anche a te! Il corso mira a sviluppare l'intuizione nell'ambito dei concetti fondamentali del machine learning.
Pubblicato da Barry Rosenberg, Google Engineering Education Team
Siamo felici di poter annunciare il Machine Learning Crash Course (MLCC) al mondo intero. MLCC è uno dei corsi più popolari creato per gli ingegneri di Google. Il nostro team di formazione tecnica ha offerto questa possibilità a oltre 18.000 Googler e ora la offre anche a te! Il corso mira a sviluppare l'intuizione nell'ambito dei concetti fondamentali del machine learning.

Quali argomenti affronta il corso?


MLCC affronta molti aspetti fondamentali del machine learning, partendo dalla perdita e dalla discesa del gradiente alla creazione tramite modelli di classificazione e reti neurali. Gli esercizi di programmazione introducono TensorFlow. Potrai guardare i mini-video degli esperti di Google sul machine learning, leggere lezioni di testo brevi e giocare con gadget didattici ideati da designer e ingegneri.

Quanto costa?


MLCC è gratuito.

Non capisco. Perché offrite MLCC a tutti?


Pensiamo che il potenziale del machine learning sia così vasto che ogni persona nel settore tecnico debba poter apprenderne i fondamenti. È disponibile in inglese, spagnolo, coreano, mandarino e francese.

Il mondo reale viene preso in considerazione nel corso?


Sì, MLCC termina con brevi lezioni sulla progettazione di sistemi di machine learning concreti. MLCC contiene alcune sezioni che ti permettono di imparare dagli errori che hanno commesso i nostri esperti.

Ho conoscenze matematiche sufficienti per seguire MLCC?


Conoscere un po' di algebra e un po' di statistica elementare (media e deviazione standard) è utile. Conoscere un po' di calcolo ti agevolerà durante il corso, ma non è un requisito. MLCC contiene una sezione utile per rinfrescare la memoria sulle conoscenze matematiche.

È un corso di programmazione?


MLCC include alcuni esercizi di programmazione Python. Tuttavia questi esercizi sono solo una piccola parte del corso, che i non-programmatori possono saltare tranquillamente.

Sono alle prime armi con Python. Gli esercizi di programmazione saranno troppo difficili per me?


Molti degli ingegneri di Google che hanno seguito MLCC non conoscevano Python ma sono riusciti a finire comunque gli esercizi. Questo perché dovrai scrivere solo poche righe di codice per gli esercizi di programmazione. Invece di scriverlo da zero, dovrai soprattutto modificare i valori delle variabili già presenti. Detto questo, ovviamente è più facile capire il codice se sai già programmare in Python.

Come imparerò i concetti di machine learning senza programmare?


MLCC si basa su una varietà di media e strumenti pratici interattivi per sviluppare l'intuizione nei concetti fondamentali di machine learning. Ci vuole una mente tecnica ma non servono necessariamente competenze di programmazione.

Come posso esibire le mie conoscenze di machine learning?


Imparando sempre di più sul machine learning, puoi anche metterti alla prova aiutando gli altri. Stiamo per lanciare la competizione Kaggle a favore di DonorsChoose.org. DonorsChoose.org è un'organizzazione che abilita gli insegnanti della scuola pubblica di tutto il paese a richiedere materiali ed esperienze di cui hanno bisogno per aiutare i loro studenti a crescere. Gli insegnanti inviano centinaia di migliaia di proposte di progetti ogni anno (sono previste 500.000 proposte nel 2018).

Attualmente DonorsChoose.org deve avvalersi di un notevole numero di volontari per esaminare tutte le proposte. La competizione Kaggle mira ad aiutare DonorsChoose.org a utilizzare il ML per accelerare il processo di screening, che consentirà ai volontari di impiegare meglio il loro tempo. Inoltre, questo lavoro dovrebbe contribuire a rendere più uniforme il processo decisionale dei progetti.

MLCC è l'unica iniziativa didattica di machine learning di Google?


È solo una delle tante iniziative disponibili per conoscere il machine learning. Per esplorare l'universo delle opportunità didattiche del machine learning di Google, consulta il nostro nuovo programma Learn with Google AI su g.co/learnwithgoogleai. Per partire da MLCC, visita g.co/machinelearningcrashcourse.

Pubblicato da Dave Burke, VP of Engineering
Durante il Mobile World Congress abbiamo osservato che l'ecosistema Android composto da sviluppatori, produttori di dispositivi e microprocessori continua a creare esperienze stupefacenti per gli utenti di tutto il mondo.
 Pubblicato da Dave Burke, VP of Engineering
Durante il Mobile World Congress abbiamo osservato che l'ecosistema Android composto da sviluppatori, produttori di dispositivi e microprocessori continua a creare esperienze stupefacenti per gli utenti di tutto il mondo.

Guardando al futuro, siamo felici di condividere la prima anteprima per sviluppatori di Android P, la nuova versione di Android. Si tratta di una prima build di riferimento solo per gli sviluppatori: voi siete i nostri revisori e tester più affidabili ;-) È fondamentale ricevere i commenti dalla nostra community di sviluppatori per aiutarci a far evolvere la piattaforma in modo da soddisfare le vostre esigenze. Vorremmo farvi iniziare a mettere alla prova le nuove funzionalità e le API nell'anteprima Android P e, come sempre, non vediamo l'ora di ricevere feedback e idee: forniteci i vostri preziosissimi suggerimenti!

La prima anteprima per sviluppatori di Android P è solo l'inizio: avremo molto più da condividere in occasione del Google I/O a maggio, quindi continuate a seguirci!

Nuove funzionalità da provare nelle app


Diamo uno sguardo ad alcune delle funzionalità più interessanti presenti in questa prima anteprima di Android P che desideriamo farvi provare e in merito alla quale aspettiamo di ricevere le vostre opinioni.

Indoor positioning grazie a Wi-Fi RTT


L'aumento dell'accuratezza dell'indoor positioning, un'annosa sfida, spalanca nuove opportunità ai servizi di localizzazione. Android P aggiunge il supporto della piattaforma per il protocollo Wi-Fi IEEE 802.11mc, anche noto come WiFi Round-Trip-Time o RTT, per consentirvi di approfittare della funzionalità di indoor positioning nelle vostre app.

Sui dispositivi che supportano Android P dotati di supporto hardware, permesso di localizzazione e servizio di localizzazione abilitati, le app possono utilizzare le API RTT per misurare la distanza dagli access point (AP) Wi-Fi presenti nelle vicinanze. Non è necessario che il dispositivo si colleghi agli AP per utilizzare RTT; inoltre, per mantenere la privacy, solo il telefono può determinare la distanza, non gli AP.

Conoscendo la distanza da 3 o più AP, potete calcolare la posizione del dispositivo con un'approssimazione di 1-2 metri. Grazie a questa notevole precisione, potete creare nuove esperienze come la navigazione in-building, i servizi di localizzazione precisi come il controllo vocale disambiguato (ad es. "Accendi la luce") e le informazioni basate sulla localizzazione (ad es. "Sono disponibili offerte speciali per questo prodotto?").

Supporto per display cutout


Adesso le app possono sfruttare a pieno gli schermi dei dispositivi più recenti con i contenuti a schermo intero. Abbiamo aggiunto il display cutout (meglio noto come display notch) nella piattaforma insieme alle API che potete utilizzare per gestire la visualizzazione dei contenuti.

Il supporto per il display cutout funziona senza difficoltà per le app, insieme al sistema che gestisce l'altezza della barra di stato per separare i contenuti dal cutout. Se avete contenuti immersivi cruciali, potete utilizzare anche le nuove API per controllare la forma del cutout e richiedere un layout a schermo intero intorno a questo. Potete verificare se l'attuale dispositivo è dotato di un cutout chiamando getDisplayCutout() e determinando la posizione e la forma dell'area del cutout utilizzando DisplayCutout. Un nuovo attributo del layout della finestra layoutInDisplayCutoutMode, vi permette di indicare al sistema come e quando presentare i contenuti rispetto all'area del cutout. I dettagli vengono presentati qui.

Per rendere più semplici la creazione e l'esecuzione di test sul supporto per cutout per le vostre app, abbiamo aggiunto un'opzione per sviluppatori che simula un cutout su qualsiasi dispositivo. Consigliamo di eseguire test sulle app esistenti, dopo aver abilitato il display cutout, per assicurarvi che i contenuti vengano visualizzati correttamente.

Le app con contenuti immersivi possono visualizzare i contenuti a schermo intero sui dispositivi dotati di display cutout.

Notifiche di messaggistica migliorate


In Android P abbiamo attribuito una maggiore priorità al miglioramento della visibilità e delle funzionalità relative alle notifiche. Provate il nuovo stile delle notifiche MessagingStyle: mette in evidenza i mittenti dei messaggi e il modo in cui potete rispondere. Potete mostrare conversazioni, inserire foto e adesivi e suggerire anche risposte rapide smart (ovvero coerenti con la conversazione). Consultate i dettagli qui.
Adesso nelle notifiche MessagingStyle potete mostrare le conversazioni e le risposte rapide smart [a sinistra] e anche inserire immagini e adesivi [a destra].

API Multi-camera


Adesso potete contemporaneamente accedere allo streaming da due o più telecamere fisiche su dispositivi che eseguono Android P. Sui dispositivi dotati di doppia fotocamera anteriore o posteriore, potete creare delle funzionalità innovative, prima impossibili da realizzare con un'unica fotocamera, come eseguire lo zoom senza difficoltà, l'effetto bokeh e la visione stereoscopica. Inoltre, l'API vi consente di richiamare uno stream logico o fuso della fotocamera che automaticamente passa tra due o più fotocamere. Siamo impazienti di vedere le vostre nuove ed entusiasmanti creazioni poiché i dispositivi con Android P che supportano più fotocamere arriveranno sul mercato l'anno prossimo.

Altri miglioramenti della fotocamera includono i nuovi parametri della sessione che aiutano a ridurre i ritardi durante l'acquisizione iniziale e la condivisione di Surface che consente ai client della fotocamera di gestire le varie situazioni senza la necessità di arrestarne e avviarne lo streaming. Abbiamo aggiunto anche delle API per il supporto per Flash basato sul display e l'accesso agli OIS timestamp per la stabilizzazione e gli effetti speciali delle immagini a livello di app.

ImageDecoder per bitmap e drawable


Android P vi consente di decodificare le immagini in bitmap o drawable in modo più semplice: ImageDecoder sostituisce BitmapFactory ImageDecoder vi consente di creare un bitmap o drawable da un buffer di byte, file o URI. Offre diversi vantaggi rispetto a BitmapFactory, incluso il supporto per il ridimensionamento esatto, la decodifica in un unico passaggio su memoria hardware, il supporto per l'elaborazione successiva a livello di decodifica e la decodifica di immagini animate.

Potete decodificare e ridimensionare fino alla dimensione esatta semplicemente richiamando setResize() con le dimensioni target. Potete anche richiamare getSampledSize() per ottenere le dimensioni dell'immagine con una frequenza di campionamento specifica e poi ridimensionarla fino alle dimensioni richieste. Se desiderate elaborare successivamente un'immagine, come ad esempio applicare bordi arrotondati per le maschere circolari oppure effetti più complicati, potete passare ImageDecoder ad android.graphics.PostProcessor. Inoltre, potete creare dei drawable direttamente con ImageDecoder.decodeDrawable(). Se l'immagine codificata è una GIF o un WebP animato, il drawable sarà un'istanza del nuovo AnimatedImageDrawable.

Video HDR VP9, compressione dell'immagine HEIF e API Media


Android P aggiunge il supporto incorporato per HDR VP9 Profile 2, quindi adesso potete offrire filmati abilitati per HDR ai vostri utenti di YouTube, Play Movies e altre risorse su dispositivi abilitati per HDR.

Non vediamo l'ora di aggiungere alla piattaforma la codifica dell'immagine ad alta efficienza (heic) HEIF. HEIF è un formato famoso per le foto che migliora la compressione per risparmiare in termini di spazio di archiviazione e dati di rete. Grazie al supporto della piattaforma sui dispositivi con Android P, è molto semplice inviare e utilizzare immagini HEIF dal server di backend. Dopo esservi assicurati che l'app è compatibile con questo formato di dati per la condivisione e la visualizzazione, provate il formato HEIF per archiviare le immagini presenti nell'app. Potete eseguire una conversione dal formato jpeg a quello heic utilizzando ImageDecoder o BitmapFactory per ottenere un bitmap da jpeg e potete utilizzare HeifWriter nella nuova versione alpha della libreria di supporto per scrivere immagini fisse HEIF dal buffer di byte YUV, Surface o Bitmap.

Stiamo lavorando anche al miglioramento e al refactoring delle API multimediali per renderle più semplici da sviluppare e integrare. Entro la fine dell'anno verranno presentati ulteriori dettagli.

Sensibilità del costo dei dati in JobScheduler


JobScheduler è un servizio centrale di Android che consente di gestire le attività pianificate o le modifiche di sospensione, standby delle app e limiti di background. In Android P, JobScheduler gestisce in modo migliorato i job relativi alla rete per gli utenti, coordinandosi con i segnali di stato della rete forniti separatamente dagli operatori.

Adesso i job sono in grado di dichiarare la loro dimensione stimata dei dati, eseguire il prefetch del segnale e specificare i requisiti di rete dettagliati, invece gli operatori possono segnalare le reti come congestionate o libere. Quindi JobScheduler gestisce il lavoro in base allo stato della rete. Ad esempio, quando una rete è congestionata, JobScheduler potrebbe rinviare richieste di rete di grandi dimensioni. Quando è libera, può eseguire attività di prefetch per migliorare l'esperienza utente, come l'esecuzione di prefetch sui titoli.

Quando aggiungete dei job, provate a utilizzare setEstimatedNetworkBytes(), setIsPrefetch() e setRequiredNetwork() per consentire a JobScheduler di gestire il lavoro correttamente. Durante l'esecuzione del job, assicuratevi di utilizzare l'oggetto di rete restituito da JobParameters.getNetwork(); in caso contrario, utilizzerete implicitamente la rete predefinita del dispositivo che potrebbe non soddisfare i requisiti determinando un utilizzo dei dati non intenzionale.

API Neural Networks 1.1


Abbiamo introdotto l'API Neural Networks in Android 8.1 per accelerare il machine learning su Android. In Android P, stiamo ampliando e migliorando questa API, aggiungendo un supporto per nove nuovi strumenti: Pad, BatchToSpaceND, SpaceToBatchND, Transpose, Strided Slice, Mean, Div, Sub e Squeeze. Se avete a disposizione un dispositivo Pixel 2, adesso la build DP1 include un driver Qualcomm Hexagon HVX dotato di accelerazione per i modelli quantizzati.

Miglioramenti della compilazione automatica


In Android P continuiamo a migliorare il framework Compilazione automatica in base ai feedback di utenti e sviluppatori. Insieme alla correzione dei bug principali, questa versione include nuove API che consentono agli strumenti per la gestione delle password di migliorare l'esperienza utente relativa alla compilazione automatica, come filtrazione di set di dati, sanificazione di input e modalità di compatibilità migliori. In particolare, la modalità di compatibilità ha un forte impatto sugli utenti finali perché consente agli strumenti per la gestione delle password di adottare un approccio basato sull'accessibilità nelle app che non sono ancora dotate di un supporto completo di compilazione automatica, ma al contempo non influiscono sulle prestazioni o sulla sicurezza. Tutti i dettagli sulle novità sono riportati qui.

API Open Mobile per pagamenti NFC e transazioni sicure


Android P aggiunge in Android un'implementazione dell'API GlobalPlatform Open Mobile. Sui dispositivi supportati, le app possono utilizzare l'API OMAPI per accedere agli elementi sicuri (SE) per abilitare i pagamenti tramite smart card e altri servizi sicuri. Uno strato di astrazione dall'hardware (HAL) fornisce l'API sottostante per l'enumerazione di una varietà di elementi sicuri (eSE, UICC e altri) disponibili.

Rafforzamento delle basi di Android


In Android P, continuiamo il nostro investimento a lungo termine per rendere Android la migliore piattaforma per sviluppatori.

Sicurezza per le app


In Android P stiamo passando a un'interfaccia utente più uniforme per l'autenticazione mediante impronta digitale su app e dispositivi. Adesso Android offre una finestra di dialogo di sistema standard per richiedere all'utente di toccare il sensore di impronte digitali, gestendo il testo e il posizionamento a seconda del dispositivo. Le app possono attivare la finestra di dialogo del sistema per le impronte digitali utilizzando la nuova API FingerprintDialog. Consigliamo di passare alla nuova finestra di dialogo del sistema il prima possibile.

Come parte di uno sforzo più ampio per spostare tutto il traffico di rete da cleartext (HTTP non cifrato) a TLS, stiamo anche cambiando le impostazioni predefinite per la configurazione di sicurezza della rete per bloccare tutto il traffico cleartext. Se utilizzate una configurazione di sicurezza della rete, adesso dovrete eseguire le connessioni tramite LTS, a meno che non diate il consenso esplicito per cleartext per domini specifici.

Privacy per gli utenti


Per garantire la privacy, Android P non consente alle app inattive di accedere a microfono, fotocamera e a tutti i sensori SensorManager. Mentre l'UID delle app è inattivo, il microfono segnala audio vuoto e i sensori interrompono il reporting di eventi. Le fotocamere utilizzate dalle app vengono disconnesse e genereranno un errore se l'app tenta di utilizzarle. Nella maggior parte dei casi, queste restrizioni non dovrebbero introdurre nuovi problemi per le app esistenti, ma consigliamo di rimuovere tali richieste dalle app.

Inoltre, abiliteremo la crittografia dei backup di Android con un segreto sul lato client. Questa funzionalità è ancora in fase di sviluppo attivo e verrà lanciata in una release futura di anteprima di Android P.

A più lungo termine, stiamo lavorando per offrire supporto per la randomizzazione per rete di MAC Address associati alla piattaforma. Sui dispositivi supportati che eseguono Android P, potete abilitare questa funzionalità in via sperimentale, disponibile come nuova opzione per sviluppatori, per eseguire dei test.

Inoltre, Android P offre all'utente il controllo sull'accesso all'identificatore build.serial della piattaforma mettendolo dietro l'autorizzazione READ_PHONE_STATE. L'accesso diretto a questo identificatore è stato reso obsoleto a partire da Android 8.0. Per accedere all'identificatore build.serial, dovete utilizzare il metodo Build.getSerial().

Prestazioni di ART


Stiamo lavorando per offrire miglioramenti a livello di prestazioni ed efficienza a tutte le app tramite il runtime ART. Abbiamo ampliato l'utilizzo di ART per i profili di esecuzione per ottimizzare le app e ridurre la quantità di memoria occupata da parte del codice dell'app compilato. Adesso ART utilizza le informazioni del profilo per la riscrittura sul dispositivo di file DEX con riduzioni fino all'11% su un'ampia gamma di app utilizzate di frequente. Prevediamo che tali riduzioni siano strettamente correlate alle riduzioni dell'uso della memoria DEX del sistema e a tempi di avvio delle app più rapidi.

Kotlin ottimizzato


Kotlin è un linguaggio avanzato su Android e, se non lo avete già fatto, dovreste assolutamente provarlo! Abbiamo dedicato un impegno costante a Kotlin in Android e continuiamo ad ampliare il supporto, inclusa l'ottimizzazione delle prestazioni del codice. In Android P potrete osservare i primi risultati di questo lavoro: abbiamo migliorato diverse ottimizzazioni del compilatore, in particolare quelle che hanno come obiettivo i loop, al fine di ottenere prestazioni migliori. Stiamo continuando a collaborare con JetBrains per ottimizzare il codice generato di Kotlin. Potete ottenere tutti gli ultimi miglioramenti relativi alle prestazioni di Kotlin mantenendo aggiornato il plug-in di Kotlin di Android Studio.

Efficienza energetica


In Android P continuiamo a perfezionare le funzioni di sospensione, standby delle app e limiti di background per migliorare ulteriormente la durata della batteria. Assicuratevi di provare le app con queste funzioni attivate e di inviarci i vostri feedback.

Obiettivo: Android moderno


Android P è il risultato delle nostre iniziative a più lungo termine volte a modernizzare i fondamenti di Android e le app che lo eseguono. Come abbiamo annunciato di recente, Google Play richiederà a tutti gli aggiornamenti delle app di avere come base Android Oreo (targetSdkVersion 26 o versioni successive) entro novembre 2018, insieme al supporto per l'hardware a 64 bit che si profila all'orizzonte per il 2019.

In linea con questi cambiamenti, Android P avvertirà gli utenti mediante una finestra di dialogo quando installano un'app su una piattaforma precedente ad Android 4.2 (targetSdkVersion precedente alla 17) e le versioni future della piattaforma continueranno ad aumentare questo limite minimo. Stiamo incoraggiando tutti gli sviluppatori Android a iniziare subito a programmare la migrazione ad API 26 e a cominciare il lavoro di migrazione il prima possibile. Ecco un elenco di controllo delle risorse per ottenere aiuto e assistenza: non vediamo l'ora di vedere le vostre app ottenere il massimo dalla versione moderna di Android.

Miglioramento della compatibilità delle app tramite le API pubbliche


Un problema fondamentale per gli utenti e gli sviluppatori è la compatibilità delle app: assicurarsi che le app siano pronte per le nuove versioni della piattaforma non appena queste vengono pubblicate, senza incorrere in arresti anomali per gli utenti e distribuzioni di emergenza per gli sviluppatori. Le app che utilizzano le API pubbliche di Android da SDK o NDK hanno buone probabilità di essere compatibili, a differenza delle app che utilizzano interfacce e librerie Android private.

Grazie ad Android P stiamo avviando un processo graduale per limitare l'accesso a interfacce non SDK selezionate, chiedendo agli sviluppatori (compresi i team dedicati alle app all'interno di Google) di utilizzare gli equivalenti pubblici. Nei casi in cui non sia presente un equivalente pubblico per una situazione specifica, informateci: vogliamo assicurarci che questo processo sia il più uniforme possibile per gli sviluppatori, infatti utilizzeremo i vostri feedback per garantire che la distribuzione iniziale interessi solo le API nei casi in cui gli sviluppatori possono migrare facilmente verso alternative pubbliche. Ulteriori informazioni sulle limitazioni sono disponibili qui.

Iniziate a utilizzare Android P con poche semplici mosse


Prima di tutto, rendete la vostra app compatibile per fornire agli utenti una transizione semplice ad Android P. È sufficiente scaricare un'immagine del sistema del dispositivo o del sistema emulatore, installare la vostra app corrente ed eseguire il test: l'applicazione dovrebbe funzionare senza problemi, essere visualizzata in modo appropriato e gestire correttamente le modifiche di comportamento. Dopo aver eseguito tutti gli aggiornamenti necessari, consigliamo di pubblicare subito l'app su Google Play senza cambiare la piattaforma target.

Ricordate: non avete bisogno di un dispositivo Pixel supportato per eseguire i test o sviluppare su Android P. Per la maggior parte delle situazioni, consigliamo vivamente di impostare un dispositivo virtuale Android sull'Android Emulator come ambiente di test. Se non avete provato l'emulatore di recente, vi accorgerete che è incredibilmente veloce, si avvia in meno di 6 secondi, è conveniente da utilizzare e potete anche modellare gli schermi di nuova generazione, come gli schermi lunghi e quelli con il cutout della fotocamera.

Quindi, cambiate la piattaforma target dell'app in "P" ed eseguitela grazie all'esperienza completa offerta da Android P. Impostate targetSdkVersion dell'app su "P" e compileSdkVersion su android-P, build e test. Assicuratevi di leggere le modifiche del comportamento per le app che hanno come piattaforma di base P per individuare le aree su cui desiderate eseguire dei test e che potrebbero dover essere modificate.

Quando siete pronti immergetevi in Android P e scoprite le nuove funzionalità e API che potete sfruttare a pieno nelle vostre app. Per facilitare l'esplorazione delle nuove API, consultate il rapporto sulle differenze delle API e il riferimento API di Android P. Visitate il sito anteprima per sviluppatori P per dettagli sulla tempistica dell'anteprima e sulle risorse di supporto. Inoltre, scoprite questo video che evidenzia le novità presenti in Android P per gli sviluppatori.

Per iniziare a creare con Android P, scaricate SDK e gli strumenti dell'anteprima per sviluppatori P in Android Studio 3.1 oppure utilizzate l'ultima versione canary di Android Studio 3.2. Stiamo inoltre rilasciando una versione alfa della libreria di supporto 28.0.0 di prova.

Le novità in arrivo


L'anteprima per sviluppatori Android P include un SDK aggiornato con immagini di sistema per il testing sull'Android Emulator ufficiale e sui dispositivi Pixel, Pixel XL Pixel 2 e Pixel 2 XL.

Abbiamo in programma di aggiornare regolarmente immagini di anteprima del sistema e di SDK per tutta la durata dell'anteprima. Questa versione iniziale è soltanto per sviluppatori e non è intesa per l'utilizzo quotidiano o per gli utenti, quindi verrà resa disponibile soltanto mediante download manuale e flash. Download e istruzioni sono disponibili qui.

In prossimità della pubblicazione del prodotto finale, inviteremo anche gli utenti a provarlo e quando sarà il momento apriremo le iscrizioni tramite Android Beta. Continuate a seguirci per ulteriori dettagli, ma tenete presente che Android Beta non è attualmente disponibile per Android P.

Come sempre, il vostro feedback è fondamentale quindi fateci sapere cosa ne pensate. Prima ci invierete le nostre opinioni, maggiori saranno le integrazioni che potremo inserire nella versione finale. Eventuali problemi possono essere segnalati qui. Abbiamo a disposizione delle hotlist per l'invio di problemi relativi alla piattaforma, alla compatibilità delle app e a SDK di terzi.




Pubblicato da Josh Simmons, Google Open Source



Pronti, partenza, via! Sono aperte le iscrizioni per gli studenti universitari che desiderano partecipare al Google Summer of Code (GSoC) 2018. Sei uno studente universitario? Vuoi finalmente mettere a frutto le tue competenze da sviluppatore di software? Allora continua a leggere.

GSoC è giunto al suo 14° anno e continua a offrire agli studenti di tutto il mondo l'opportunità di conoscere meglio lo sviluppo del software open source pur continuando a lavorare da casa. Gli studenti ricevono una borsa di studio come contributo che consente loro di concentrarsi sul progetto presentato, per tutta la durata del programma. Una community di mentori appassionata aiuta gli studenti a superare le diverse problematiche tecniche e a monitorarne i progressi lungo il percorso.

I partecipanti degli scorsi anni hanno detto che l'esperienza concreta offerta da GSoC ha sviluppato le loro competenze tecniche, aumentato la loro fiducia, ampliato la loro rete professionale e arricchito il loro curriculum.

Gli studenti interessati possono inviare proposte al sito del programma da ora fino a martedì 27 marzo 2018 alle 16:00 UTC.

Anche se molti studenti hanno iniziato a prepararsi già da febbraio, quando sono state annunciate le 212 organizzazioni open source partecipanti, non è troppo tardi per iniziare! Il primo passo è consultare l'elenco delle organizzazioni e cercare idee di progetti che ti interessano. Poi, contatta l'organizzazione per presentarti e valutare se le tue competenze e i tuoi interessi sono adatti. I posti sono limitati, quindi ti consigliamo di scrivere una proposta valida e di inviare una bozza per tempo, in modo che tu possa ricevere il feedback dall'organizzazione e aumentare le tue probabilità di venire scelto.

Per capire come prepararti, guarda questo video e consulta la Guida dello studente.






Per ulteriori informazioni, visita il nostro sito web che include il calendario completo degli eventi importanti. Ti consigliamo anche di andare a vedere le FAQ e le Regole del programma oltre a iscriverti alla mailing list della discussione.

Ricorda di inviare presto le tue proposte, hai tempo solo fino a martedì 27 marzo alle 16:00 UTC. Buona fortuna a tutti gli applicanti!








Originariamente pubblicato su Medium di Flutter da Seth Ladd
In occasione del Mobile World Congress 2018, abbiamo annunciato il rilascio della prima versione beta di ...
 Originariamente pubblicato su Medium di Flutter da Seth Ladd
In occasione del Mobile World Congress 2018, abbiamo annunciato il rilascio della prima versione beta di Flutter. Flutter è il nuovo framework della UI mobile di Google che consente agli sviluppatori di creare interfacce native di alta qualità sia per iOS che per Android. Inizia oggi stesso a utilizzare flutter.io per creare bellissime app native in tempi record.

Flutter mira al punto focale dello sviluppo mobile: le prestazioni e le integrazioni della piattaforma di dispositivi mobili nativi con sviluppo ad alta velocità e portata multi-piattaforma di toolkit UI portatili.

Progettato per gli sviluppatori mobili sia alle prime armi che esperti, Flutter consente di creare app di qualità e successo in tempi record con vantaggi quali:
  • Sviluppo ad alta velocità con funzionalità come Stateful Hot Reload, un nuovo framework reattivo, un ricco set di widget e strumenti integrati.
  • Design espressivi e flessibili con set di widget componibili, librerie di animazioni ricche e un'architettura stratificata ed estensibile.
  • Esperienze di alta qualità su piattaforme e dispositivi diversi grazie al nostro renderer portatile con accelerazione GPU, runtime di codice ARM nativo ad alte prestazioni e interoperabilità fra piattaforme.

Rispetto alla versione alfa dell'anno scorso, e grazie all'aiuto della nostra community, abbiamo potuto apportare cambiamenti quali il supporto per l'utilità di lettura dello schermo e altre funzioni di accessibilità, testo da destra a sinistra, localizzazione e internazionalizzazione, supporto per iPhone X e iOS 11, video inline, supporto aggiuntivo per il formato delle immagini, esecuzione di codice Flutter in background e molto altro.

Anche i nostri strumenti sono migliorati in modo significativo, con il supporto per Android Studio, Visual Studio Code, i nuovi refactoring per gestire meglio il codice del widget, l'interoperabilità tra piattaforme per esporre la potenza delle piattaforme mobili al codice Flutter, Stateful Hot Reload migliori e un nuovo widget inspector per esplorare la struttura dei widget.

Grazie alle numerose nuove funzionalità di framework e strumenti, i team di Google (come AdWords) e del resto del mondo hanno potuto sfruttare Flutter utilizzandolo nelle app di produzione con milioni di installazioni; le app create con Flutter sono state pubblicate nell'App Store e nel Play Store (ad esempio Hamilton: The Musical) e altre startup e agenzie hanno ottenuto ottimi risultati grazie a Flutter.

Ad esempio, Codemate, un'agenzia di sviluppo in Finlandia, attribuisce il ciclo di sviluppo ad alta velocità e il toolkit UI personalizzabile di Flutter alla loro abilità di creare rapidamente una bella app per Hookle. "Ora possiamo raccomandare tranquillamente Flutter ai nostri clienti affinché ottengano prestazioni migliori e offrano più valore ai loro utenti sui diversi dispositivi mobili", ha affermato Toni Piirainen, CEO di Codemate.

Le app create con Flutter offrono qualità, prestazioni e design personalizzati su tutte le piattaforme.

La beta di Flutter funziona anche con la pre-release di Dart 2, con un supporto migliorato per la dichiarazione dell'UI in codice che richiede una procedura minima dal punto di vista del linguaggio. Dart 2 deduce new e const per rimuovere il boilerplate quando creiamo l'UI. Eccone un esempio:

// Before Dart 2
Widget build(BuildContext context) {
  return new Container(
    height: 56.0,
    padding: const EdgeInsets.symmetric(horizontal: 8.0),
    decoration: new BoxDecoration(color: Colors.blue[500]),
    child: new Row(
      ...
    ),
  );
}

// After Dart 2
Widget build(BuildContext context) =>
  Container(
    height: 56.0,
    padding: EdgeInsets.symmetric(horizontal: 8.0),
    decoration: BoxDecoration(color: Colors.blue[500]),
    child: Row(
      ...
    ),
  );

widget.dart on GitHub

Siamo contenti di vedere l'ecosistema di Flutter diffondersi. Ora ci sono più di 1000 pacchetti che funzionano con Flutter (ad esempio: SQLite, Firebase, Facebook Connect, preferenze condivise, GraphQL e molto altro), oltre 1700 persone nella chat e siamo lieti di vedere la nostra community lanciare nuovi siti come Flutter Institute, Start Flutter e Flutter Rocks. Inoltre, ora puoi iscriverti alla nuova newsletter di Flutter Weekly, curata e pubblicata dalla community.

In attesa della versione 1.0, ci concentriamo sulla stabilizzazione e il completamento degli scenari. La roadmap, influenzata prevalentemente dalla nostra community, attualmente tiene traccia di come semplificare il montaggio di Flutter in un'app esistente, WebView inline, API di routing e navigazione migliorate, il supporto di Firebase aggiuntivo, mappe inline, un motore centrale più piccolo e altro ancora. Prevediamo di pubblicare nuove beta approssimativamente ogni quattro settimane e ti incoraggiamo vivamente a votare (👍) su questioni importanti per te e la tua app nel nostro issue tracker.

Questo è il momento perfetto per provare Flutter. Puoi passare velocemente da zero alla tua prima app Flutter in esecuzione consultando la Guida introduttiva. Se l'hai già installato, vai direttamente al canale beta seguendo queste istruzioni.

Vogliamo ringraziarti sinceramente per il tuo supporto, feedback e contributo. Non vediamo l'ora di continuare questo percorso insieme e di scoprire cosa creerai!