Local blog for Italian speaking developers
API Remote Display di Cast: Processing
25 settembre 2015
Remote Display su Google Cast consente la visualizzazione delle app contemporaneamente sul dispositivo mobile e su quello di Cast.
Processing
è un linguaggio di programmazione che consente ad artisti e sviluppatori dilettanti di creare grafica e mostre interattive avanzate. Combinando i due fattori possiamo creare rapidamente splendidi progetti di arti visive e visualizzarli sul grande schermo portando semplicemente il telefono a una festa o a una galleria d’arte. Questo articolo illustra come abbiamo aggiunto il supporto per le
API Remote Display
di Google Cast al framework
Processing per Android
e in che modo gli sviluppatori possano fare altrettanto.
Un’app di esempio della nota libreria Processing toxiclibs su Cast.
Scaricare
il codice ed eseguirlo sul proprio Chromecast!
Una breve introduzione
Processing dispone del proprio
IDE
e di numerose
contributed libraries
che nascondono i dettagli tecnici di varie tecnologie di input, output e rendering. Gli utenti di Processing dotati di semplici competenze di programmazione possono creare scene e visualizzazioni grafiche complesse.
Per scrivere un programma nell’IDE di Processing si crea uno “sketch” che comporta l’aggiunta di codice ai callback del ciclo di vita che inizializzano e disegnano la scena. Lo sketch può essere eseguito come un programma Java sul desktop. Lo sviluppatore può inoltre abilitare il supporto per
Processing per Android
e successivamente eseguire lo stesso sketch come un’app sul dispositivo mobile Android. Sono supportati anche gli eventi touch e i dati dei sensori per interagire con le app generate.
Anziché visualizzare semplicemente i grafici sul piccolo schermo del dispositivo Android, lo sviluppatore può lavorare meglio proiettando la grafica su uno schermo TV. Le API Remote Display di Google Cast facilitano il trasferimento di app dall’elevato utilizzo di risorse grafiche sui ricevitori Google Cast mediante le GPU, CPU e i sensori disponibili sui dispositivi mobili già in uso.
Come ci siamo riusciti
L’aggiunta del supporto per Remote Display comportava la modifica del codice sorgente di Processing per Android Mode. Per compilare Android Mode è necessario prima compilare il codice sorgente dell’IDE di Processing. Abbiamo iniziato con il codice sorgente dell’attuale
versione 2.2.1
stabile dell’IDE di Processing e l’abbiamo compilato utilizzando lo script di build Ant (le istruzioni particolareggiate sono incluse nel download del codice). Successivamente abbiamo scaricato l’SDK di Android e il codice sorgente per
Android Mode 0232
. Dopo aver apportato alcune modifiche di minore entità alla relativa build config a supporto dell’ultima versione dell’SDK di Android, abbiamo usato Ant per creare il file zip Android Mode. Il file zip è stato decompresso nella directory delle modalità IDE di Processing.
Successivamente abbiamo usato l’IDE per aprire uno degli sketch di esempio di Processing e lo abbiamo esportato come progetto di Android. Nel progetto generato abbiamo sostituito la libreria processing-core.jar con il codice sorgente per Android Mode. Abbiamo anche aggiunto al progetto una build config Gradle e quindi abbiamo importato il progetto in
Android Studio
.
L’Attività principale per un’app Processing è un discendente della classe
PApplet
di Android Mode. La classe PApplet utilizza una
GLSurfaceView
per il rendering della grafica 2D e 3D. Abbiamo dovuto cambiare il codice per usare la stessa GLSurfaceView per l’API Remote Display.
Si tratta di un elemento obbligatorio della
Google Cast Design Checklist
affinché il pulsante Cast sia visibile in tutte le schermate. Abbiamo modificato la PApplet in ActionBarActivity in modo da poter visualizzare il pulsante Cast nella barra delle azioni. Il pulsante Cast è stato aggiunto mediante un
MediaRouteActionProvider
. Per elencare unicamente i dispositivi di Google Cast che supportano Remote Display, abbiamo usato un MediaRouteSelector con un ID App ottenuto dalla
Google Cast SDK Developer Console
per un ricevitore Remote Display.
Successivamente abbiamo creato una classe denominata PresentationService che amplia il
CastRemoteDisplayLocalService
. Il servizio consente all’app di mantenere in esecuzione il display remoto anche quando si trasferisce in background. Il servizio richiede un’istanza CastPresentation per la visualizzazione dei relativi contenuti. L’istanza
CastPresentation
utilizza la GLSurfaceView dalla classe PApplet per la visualizzazione dei relativi contenuti. Tuttavia, l’impostazione della visualizzazione dei contenuti di CastPresentation richiede l’apporto di alcune modifiche alla PApplet in modo che la GLSurfaceView non venga inizializzata nella relativa onCreate, ma attenda fino al richiamo del callback del servizio
onRemoteDisplaySessionStarted
.
Quando l’utente seleziona un dispositivo Cast nel menu del pulsante Cast e viene chiamato l’evento MediaRouter
onRouteSelected
, il servizio viene avviato con
CastRemoteDisplayLocalService.startService.
Quando l’utente si disconnette da un dispositivo Cast mediante il pulsante Cast, l’evento MediaRouter
onRouteUnselected
viene chiamato e il servizio viene interrotto mediante
CastRemoteDisplayLocalService.stopService
.
Per il display mobile, visualizziamo un bitmap dell’immagine e inoltriamo gli eventi touch di PApplet al metodo surfaceTouchEvent esistente. Quando lo sviluppatore esegue l’app Android, può usare i gesti touch sul display del dispositivo mobile per controllare l’interazione con la TV. Questo
video
mostra alcune delle app Processing eseguite su un Chromecast.
La maggior parte del nuovo codice è contenuta nelle classi PresentationService e RemoteDisplayHelper. Il dispositivo mobile deve disporre minimo di Android KitKat e Google Play services versione 7.5.71.
Adesso tocca agli sviluppatori
Gli sviluppatori possono ora provare le API Remote Display nelle proprie app Processing. Anziché modificare il codice generato ogni volta che si esporta il progetto Android Mode, consigliamo di usare il nostro progetto come base e copiare semplicemente il codice Android generato e le librerie nel proprio progetto. Successivamente basta modificare il file della build del progetto e aggiornare il manifesto per avviare l’app con l’Attività principale dello sketch.
La descrizione più dettagliata dell’uso delle API Remote Display è riportata nella nostra
documentazione per gli sviluppatori
. Siamo impazienti di vedere che cosa realizzeranno gli artisti di Processing grazie all’uso di questo codice nei propri progetti.
Etichette
Android
Firebase
Google Cloud Platform
GDL
Eventi
Google Developers Live
machine learning
App
Google Play
Chrome
Cloud
api
GDLItalia
GDE
TensorFlow
iOS
AppEngine
GDG
AMP
Cloud Functions
Google Assistant
Android Studio
BigQuery
Google Developers Expert
Università
Google AppEngine
Actions on Google
Android Wear
Deep Learning
GAE
Google Play Store
HTML5
JavaScript
Maps
AngularJS
Annunci
Cloud Machine Learning
Kubernetes
Polymer
Android Things
Community
DevTools
Google App Engine
IoT
Kotlin
intelligenza artificiale
Cloud Firestore
Entrepreneurship
Firebase Analytics
Google Cast
Google I/O
security
Dart
Drive
Google Data Studio
Google Play Games
Android O
Cloud Spanner
Cloud TPU
Compute Engine
Flutter
GSoC
Games
Google Compute Engine
Material Design
Mobile
PWA
Startup
open source
AIY Project
Apps Script
Crashlytics
Diversity
Firebase Cloud Messaging
Google Maps
Gsuite
Python
Research
VR
coding
AR
ARCore
Augmented Reality
Cardboard
Cloud AI
Dialogflow
Firebase Realtime Database
Gmail
Google Cloud Messaging
Google ContainerEngine
Google Play Console
Responsive Design
Women
beacons
cloud storage
node JS
unity
API Cloud Vision
Add-ons
Android Jetpack
Android P
AndroidDevStory
Brillo
Classroom
DevFest
Fabric
G Suite
GWT
GoLang
Google Brain
Google Container Engine
Google I/O Extended
ML kit
Mobile Sites
Prediction
Project Tango
SDK
Stackdriver
Tales
Testing
Udacity
Virtual Reality
WTM
YouTube
analytics
api.ai
courses
reti neurali
sign-in
ARkit
Android App bundle
Android Architecture
Android Architecture Components
Android Go
Android Instant App
Android Pie
AndroidTV
Angular
AutoML
Betatesting
C++
Certification
Cloud Service Platform
Cloud Shell
Community Connector
Computer Science
Converge
Conversation Design
Emulatore Android
GCE
GDD
Gboard
Glass
Go
Google App Script
Google Cloud Functions
Google Cloud billing
Google Developer Days
Google Identity Platform
Google Launchpad
Google Lens
Google Now
Google Photos
Google Plus
Google+
GoogleDevWeekly
GoogleLaunchpad
Graph
Ingress
Instant Apps
Knative
Lighthouse
Localization
Mondaygram
Monetization
NativeScript
PHA
Resonance Audio
Serverless
TensorFlow Lite
UX
WWW
Wear OS
Web
WebAssembly
authsub
botnet
cancer
chatbot
codelab
daydream
designer
hashcode
kids
maker
nearby
oauth
openid
realtime
verify apps
Archivio Blog
2019
feb
gen
2018
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2017
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2016
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2015
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2014
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
2013
dic
nov
ott
set
ago
lug
giu
mag
apr
mar
feb
gen
Feed
Follow @GoogleDevsItaly