Materiali per l'esercitazione
![]() |
I
monitor autostereoscopici permettono la vista stereoscopica senza
l’ausilio di appositi occhiali. È anche possibile abbinare strumenti
che identificano la posizione degli occhi dell’osservatore, potendo
così variare le immagini in relazione alla posizione dell’osservatore
stesso rispetto allo schermo. Fonte: SynthaGram Stereographics. |
![]() |
OmniGlobe
è uno schermo sferico o semisferico (1.5 e 2 metri di diametro) sul
quale possono essere proiettati panorami e immagini. Il costo,
attualmente, varia tra i 45.000 e i 55.000 dollari, pur se in rapida
diminuzione. Fonte:
www.arcscience.com/omni.htm. |
![]() |
Esempio di abbinamento di schermi olografici semitrasparenti con sistemi di riconoscimento del movimento delle mani dell’osservatore, il quale sarà così in grado di impartire istruzioni al software indicando direttamente l’azione desiderata. Fonte: Emanuele Garbin, IUAV. |
![]() |
Esemplificazione di dispositivo per la focalizzazione del suono: solo l’utente posto nella giusta posizione potrà udire il suono emesso. In tal modo si potranno affiancare configurazioni digitali diverse, anche poste vicine tra loro, senza ‘contaminazioni’ acustiche. Fonte: HyperSonic Sound, American Technology Corporation. |
![]() |
Super Cilia Skin è una membrana interattiva
multi-modale. Le ‘cilia’ sono sensori/attuatori in grado di rilevare
il tocco e modificare il loro orientamento spaziale, producendo immagini
o sensazioni tattili, naturalmente anche a distanza. Autori: Hayes Raffle, Mitchell W. Joachim, James Tichenor, MIT. |
![]() |
Dance
Space. Il sistema Pfinder traccia i movimenti del corpo umano: la testa
(grigio), il busto (porpora), le gambe (rosso), le mani (verde), i piedi
(giallo). Questa abilità costituisce la base necessaria per collegare e
sincronizzare suoni o immagini al movimento del corpo libero. |
![]() |
I/O Brush permette ai bambini di esplorare i colori e le tessiture degli oggetti rilevandoli e usandoli per disegnare. Sembra un normale pennello ma contiene una videocamera, una luce e sensori di colore, tocco e movimento. Autori: Kimiko Ryokai, Stefan Marti, Hiroshi Ishii, MIT Media Lab. |
![]() |
Small Fish. Grafica interattiva che genera musica. L’idea base è di usare figure, movimenti e collisioni di oggetti e immagini per produrre musica interattivamente. Autori: Kiyoshi Furukawa, Masaki Fujihata, Wolfgang Münch. Fonte: Ars Electronica Center, Linz. |
![]() |
Get in Touch I/0 bulb. La luce assegna nuovi significati digitali alle superfici di modelli architettonici e alla loro manipolazione. Possono così essere proiettate immagini direttamente sulle superfici dei modelli, qualunque sia la loro posizione. Autori: John Underkoffler, Daniel Chak, Benjamin Fielding-Piper, Angela Chang, Gustavo Santos, Hiroshi Ishii, Tangible Media Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
ReacTable
è uno strumento per produrre musica elettronica usando un’interfaccia
composta da elementi fisici che si dispongono su di un tavolo, ponendoli
in relazione tra loro. |
![]() |
Interactive Bar. Quando si toccano le superfici degli oggetti reali posti sul tavolo, ‘organismi’ digitali reagiscono in modo curioso, ruotando e affollandosi attorno all’oggetto. Toccandoli con le dita seguiranno i movimenti della mano; allontanandola scompariranno. Un gioco digitale per mettere in comunicazione e creare un'interconnessione fra i partecipanti. Autori: Golan Levin, Zachary Lieberman, Horst Hörtner, Dietmar Offenhuber, Christopher Lindinger, Stefan Mittlböck-Jungwirth, Martin Honzik, Erwin Reitböck, Peter Freudling. Fonte: Ars Electronica Center, Linz. |
![]() |
PingPong Plus. Un tavolo da ping-pong sensibile al tocco della pallina, sul quale sono proiettate immagini in stretta relazione all’intensità della battuta e alla posizione della pallina stessa. Autori: Hiroshi Ishii, Matthew Malcolm, Rujira Hongladaromp, Jay Lee, Blair Dunn, Craig Wisneski, Julian Orbanes, Ben Chun, Tangible Media Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
Tug of War. Tiro alla fune tra un essere umano e un computer. È un esempio di stretta interazione tra sensori – che rilevano la tensione prodotta dall’utente - e attuatori che riproducono una analoga e opposta tensione alla corda e proiettano le relative immagini sullo schermo. Autore: Land Design Studio Ltd. Fonte: Ars Electronica Center, Linz. |
![]() |
TextRain usa i movimenti del corpo per ‘giocare’ con i caratteri che scendono lentamente sullo schermo: questi ultimi sono fermati dall’ombra, rilevata da una telecamera e proiettata sullo schermo. Un esempio semplicissimo ma efficace di interazione attuata senza alcuno strumento indossato dall’utente. Autori: Romy Achituv, Camille Utterback. Fonte: Ars Electronica Center, Linz. |
![]() |
Cyclops rileva i movimenti della persona che ha di fronte e li riproduce, eseguendo movimenti del tutto naturali, mediante 50 ‘muscoli’ ad aria compressa. Un esempio di robot con comportamento ‘umano’. Autori: Shunji Yamanaka, Kinya Tagawa, Jun Homma, Nicholas Oxley, Yuji Mitani, Leading Edge Design, Shadow Robot (muscoli ad aria compressa), Nichinan (fabbricazione). Fonte: Ars Electronica Center, Linz. |
![]() |
Responsive Window. Sensori catturano tutte le caratteristiche del tocco della mano: posizione, intensità e tipo (dito, nocca, palmo, dorso, pugno…). In risposta a queste sollecitazioni sono proiettate immagini su di uno schermo olografico posto dietro al vetro. Autori: Ben Fry, Che King Leo, Kaijen Hsiao, Nisha Checka, Responsive Environment Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
MusicBottles è un esempio di interfaccia ‘trasparente’ per l’utente: aprendo le bottiglie sono emesse musiche jazz, techno o classiche. Autori: Ali Mazalek, Jay Lee, Joseph Panganiban, Joanna Berzowska, Rich Fletcher, Seungho Choo, Joe Paradiso, Charlie Cano, Andres Hernandez, Colin Bulthaup, Hiroshi Ishii, Tangible Media Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
InTouch è un altro esempio di connessione sensori-attuatori: un utente muove i rulli e un altro utente distante, in quel momento ‘passivo’, riceve lo stesso movimento, caratterizzato dalla medesima forza impressa dall’utente ‘attivo’. Autori: Scott Brave, Andrew Dahley, Phil Frei, Victor Su, Rujira Hongladaromp, Hiroshi Ishii, Tangible Media Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
Co.In.Cide, rende possibile la relazione tra due ‘spazi’ mediante un sistema di relazioni, il ‘terzo spazio’. Quando i movimenti del corpo di un visitatore coincidono con quelli della sua controparte telematica, entrambi possono aprire un canale di comunicazione e stabilire un contatto visivo. Solo quando la congruenza di ‘atteggiamenti’ è verificata, il visitatore può vedere ‘riflesso’ sullo schermo il suo omologo remoto. Autore: Heimo Ranzenbacher. Fonte: Ars Electronica Futurelab. |
![]() |
ClearBoard integra il disegno con la video conferenza, che permette una conversazione ‘faccia a faccia’ a distanza. Le informazioni grafiche e testuali sono scambiate interattivamente e in modo collaborativo. Autori: Hiroshi Ishii, Minoru Kobayashi, Tangible Media Group, MIT MediaLab. Fonte: Ars Electronica Center, Linz. |
![]() |
InnovisionBoard, aggiorna l’uso della lavagna ai nuovi media. Gli strumenti di input sono il tablet PC e camere digitali, proiettando su schermi al plasma gli schizzi e le immagini nella forma ‘tradizionale’ di post-it e Polaroid ma con la possibilità di modificare di continuo la disposizione e l’ordine dei messaggi. Autori: Roland Haring, Horst Hörtner, Erwin Reitböck, Christian Naglhofer, Christopher Lindinger, Peter Freudling. Fonte: Ars Electronic, Linz. |
![]() |
Aegis Hyposurface, prototipo di parete deformabile interattiva di dECOi. Superfici deformabili in grado di riprodurre dinamicamente immagini e forme in rilievo. Le immagini e le forme possono essere generate dal computer o ottenute tramite ripresa digitale o scansione tridimensionale di oggetti reali. |
![]() |
POLAR. Ambiente sensibile alle variazioni delle condizioni fisiche interne (temperatura, movimento, suoni), reagisce alla presenza dei visitatori e ‘comunica’ con loro. I visitatori interagiscono tramite video sensibili al tocco con le luci, i suoni e i grafici proiettati sulle pareti semitrasparenti. La trasparenza permette di combinare, in modo naturale e non faticoso, immagini ottiche e proiettate. Autori: Carsten Nicolai, Marko Peljhan. |
![]() |
DanceSpace è uno spazio interattivo nel quale il movimento del corpo umano genera musica e grafici proiettati su di uno schermo. Ciascuna parte del corpo è rilevata e tracciata da sensori che traducono i movimenti i suoni e immagini. Autori: Flavia Sparacino, MIT Media Lab. |
![]() |
Apparition. “Quale coreografia si crea quando il tuo partner è un software? Quando il virtuale e il reale condividono lo stesso spazio? Quando tutto ciò che si muove sul palcoscenico è indipendente e interattivo? E quando qualsiasi forma può essere trasformata in una superficie di proiezione in movimento?” Autori: Klaus Obermaier, Peter Brandl, Christopher Lindinger, Jing He, Hirokazu Kato, Desirée Kongerod, Robert Tannion, Scott deLahunta. Fonte: Gabi Hauser. |
Strumenti
hardware e software
Video
Animazioni
Immagini
Panorami
Panorami
‘oggetto’
Esplorazioni
interattive
Testi
Suoni
Schermi
autostereoscopici
Schermi
stereoscopici
Schermi
‘olografici’ semitrasparenti
Schermi
ad ampio angolo di campo
Occhiali
‘Retina display’
Riconoscimento
del movimento delle mani, della testa
Riconoscimento
tocco delle mani su superfici
Riconoscimento
posizione pupille e direzione dello sguardo
Riconoscimento
silhouette
Riconoscimento
dei grafici
Mouse
3D
Superfici
sensibili
Touch
screen
Pareti
deformabili
Attuatori
(ad esempio guanti con ripetizione della forza, robot)
Media
ambientali (acqua, luce, aria...)
Sensori:
ottici, acustici, a ultrasuoni, a laser, di pressione, di contatto, di forza, di
prossimità, di distanza, di posizione, di movimento
Note
·
La comunicazione
tradizionale non è permutabile con quella digitale: entrambe, pur con strumenti
e metodi diversi, dovrebbero concorrere allo stesso scopo di comunicare
informazioni utili e suggestioni. Nell’una e nell’altra il risultato è dato
dalla somma di saperi disparati e complementari.
·
La tecnologia digitale
dovrebbe essere vista come agente intermediario e non come fine. L’utente,
idealmente, non dovrebbe indossare alcun dispositivo, né leggere alcuna
istruzione d’uso, né avere conoscenze specifiche.
·
Ridurre
al minimo l’uso di funzioni simili a quelle normalmente presenti nei siti
Internet o nei software tradizionali (come, ad esempio, l’apertura e chiusura
di finestre, l’uso di menu e di barre di scorrimento).
·
Prevedere gradi
diversi, paralleli ma integrati di esplorazione e d’uso delle risorse
digitali, sia per quanto concerne lo spessore dell’informazione offerta
- in riferimento al profilo culturale, alle richieste e alle specifiche
aspettative dell’utente -, sia in relazione all’uso più o meno intensivo
degli strumenti informatici. Si potranno così organizzare percorsi di
esplorazione totalmente liberi, e pertanto anche pienamente attivi e
interattivi, parzialmente guidati, con possibili scelte tra diversi percorsi
predefiniti, oppure anche totalmente passivi per il visitatore.
·
Puntare alla trasparenza
e alla naturalezza dell’interfaccia, più che all’ostentazione
tecnologica. D’altra parte questa non ha più l’efficacia persuasiva degli
anni passati: oggi si accettano sempre meno di buon grado innovazioni non
caratterizzate da vera efficienza, semplicità, intelligenza, comodità.
·
Integrare sensori e
attuatori con caratteristiche diverse tra loro, per far sì che l’utente
percepisca un immediato e variegato riscontro dell’azione compiuta.
·
Uniformare
la logica d’uso e il meccanismo comunicativo nei confronti dell’utente.
L’utilizzatore o il visitatore non dovrà essere posto nella condizione
potenzialmente ansiosa di dover, ad ogni sosta, iniziare daccapo la fase
conoscitiva di apprendimento. Al contrario, dovrà riconoscere confidenza e
uniformità d’uso anche tra interfacce diverse, percependole come proprie e
conosciute, come avviene, ad esempio, per le automobili, gli apparecchi
televisivi o le lavatrici, pur nella loro diversità. L’utente deve avere la
possibilità di conquistare rapidamente e autonomamente la padronanza del mezzo
e la piena consapevolezza degli obiettivi e degli scopi della configurazione
digitale che sta usando.
Esempi di possibili configurazioni digitali
L’utente
esplora e ‘naviga’ panorami relativi, ad esempio, al teatro La Fenice oppure
a varie scenografie (sia immagini fotografiche, sia anche immagini di sintesi).
La
configurazione rileva il movimento delle mani e muove o modifica i panorami,
proiettati su uno schermo.
Movimenti
riconosciuti dal sistema:
-
spostamenti del braccio in senso orizzontale o verticale (movimento del
panorama nel senso del movimento del braccio, equivalente ad un PAN);
-
braccio fermo su un punto (equivalente ad un CLICK del mouse);
-
rettangolo ‘disegnato’ con la mano (equivalente ad uno ZOOM).
Alcune o
tutte le funzioni sono raddoppiate mediante il riconoscimento vocale.
Lo schermo può
essere curvo, ‘immersivo’, con angolo di campo di 150°/180°.
I panorami
possono essere stereoscopici (con uso di occhiali polarizzati) o previsti per
schermi autostereoscopici. Può essere associata la focalizzazione del suono e
il riconoscimento della direzione dello sguardo dell’osservatore, per la
produzione interattiva di panorami in funzione della posizione
dell’osservatore rispetto allo schermo (solo con immagini di sintesi).
L’utente è
di fronte ad un tavolo sul quale è posto un modello smontabile del teatro. Ogni
pezzo del modello contiene sensori (altri sensori sono posti di fronte
all’utente).
La
configurazione è in grado di stabilire:
-
quale sezione smontabile del teatro prende in mano l’utente;
-
quale parte tocca l’utente;
-
come è disposta la sezione rispetto agli occhi dell’utente (cosa sta
guardando l’utente).
Usando i dati
appena esposti - ed anche mediante la funzione di riconoscimento vocale – il
sistema mostra all’utente, su uno o più schermi semitrasparenti,
stereoscopici o autostereoscopici, viste relative alla parte che l’utente sta
manipolando.
Eventualmente,
in funzione delle richieste dell’utente, sono inseriti commenti testuali,
sonori (focalizzazione del suono), video, grafici, esplorazioni interattive,
panorami ad oggetto ecc., come ulteriore specificazione e approfondimento.
Si tratta
dunque di una sorta di data-base tridimensionale esplorabile liberamente.
Un tavolino
sostiene un modello di palcoscenico e alcuni oggetti che rappresentano parti di
una scenografia (dotati di sensori di posizione e di spostamento), luci, attori,
punti di vista (tutti gli oggetti sono bianchi e molto semplificati, quasi icone
3D). L’utente dispone gli oggetti nel palcoscenico, stabilisce i colori e le
tessiture degli oggetti (ad esempio per mezzo della funzione di riconoscimento
vocale), definisce le luci (il palcoscenico contiene anche le ‘americane’
per le luci), stabilisce il punto di vista (ad esempio, per mezzo di una pallina
di legno che tiene ferma per qualche secondo in una certa posizione dello
spazio) e decide anche l’attacco musicale. La configurazione, sulla base delle
informazioni impartite dall’utente, proietta su di uno schermo la scenografia
renderizzata, vista dal punto di osservazione stabilito dall’utente. Lo
schermo può essere ‘immersivo’ (ad ampio angolo di campo), stereoscopico,
semitrasparente ecc. (anche in varie combinazioni di queste caratteristiche). Si
potranno anche impartire indicazioni di movimento delle luci e degli attori...
Variante: uso di esplorazioni interattive.
L’utente ha
a disposizione alcuni modelli di strumenti musicali; li dispone su un tavolo a
formare un’orchestra; decide il brano e, impugnata la bacchetta da direttore e
disposto lo spartito davanti a sé, dirige l’orchestra.
La
configurazione digitale riconosce la disposizione degli strumenti e il movimento
della bacchetta (ed eventualmente identifica anche le indicazioni espresse
verbalmente dal ‘direttore’: ad esempio ‘più alto’, ‘maggiore
enfasi’, ecc., come normalmente avviene durante le prove d’orchestra) e
produce i suoni corrispondenti (per mezzo della focalizzazione del suono).
Possibile
variante: uso di ‘media ambientali’. Oltre a produrre il suono, la
configurazione attiva e modifica vari getti d’aria – in sintonia con i suoni
prodotti - che muovono strisce di stoffa colorata che circondano l’utente.
Altra variante: su di uno schermo appare, resa graficamente, la musica realmente
diretta da un grande direttore d’orchestra oppure il direttore stesso che
dirige (per offrire un riferimento al ‘direttore’ non professionista).
Possibile
ambientazione: teatro delle Terese (chiesa). L’utente sceglie il testo da
mettere in scena e il personaggio che intende impersonare. La scenografia è
reale o digitale (in questo caso proiettata su grandi schermi opportunamente
disposti) o in parte reale e in parte digitale.
La
configurazione digitale – che ha in memoria il testo e i personaggi recitanti
– proietta gli attori virtuali su alcuni schermi semitrasparenti (questi
possono eventualmente spostarsi sul piano del palcoscenico) e attiva le relative
parti recitative (casse acustiche direzionabili, poste vicine agli schermi).
L’utente – unico attore reale - recita (in costume di scena o no) assieme
agli attori virtuali.
Possibile
variante: l’utente è il regista e - per mezzo di comandi vocali e mediante il
riconoscimento, da parte del sistema, del movimento delle sue mani e della
direzione del suo sguardo – può impartire direttive (di movimento e di
recitazione) agli attori virtuali, eventualmente combinati con attori reali.
L’obiettivo
è di verificare i possibili movimenti della macchina scenica e delle luci di un
teatro in relazione ad una specifica scenografia. L’utente combina meccanismi
simili al punto 3) con schizzi eseguiti su di uno schermo di tipo ‘clear
board’. Il risultato è proiettato su uno schermo stereoscopico, con
possibilità di ruotare continuamente attorno alla scenografia per verificare i
movimenti. I movimenti stessi sono anche disaggregati (usando colori e/o
movimenti diversificati nel tempo e separati tra loro) in modo da capire la
compatibilità complessiva dei movimenti con la macchina scenica, sia prendendo
in esame singolarmente ciascun movimento, o ciascuna luce.
Possibile
variante: posto in luogo remoto, uno scenografo ‘dialoga’ con l’utente,
graficamente e a voce, per mezzo dello schermo ‘clear board’.
Ulteriori
varianti: il sistema riconosce gli spostamenti e la voce dell’utente che
‘impartisce ordini’ di spostamento e modifica come se dialogasse con una
squadra di montaggio e con i vari macchinisti; uso di esplorazioni interattive.
L’obiettivo
è di trasformare bozzetti di costumi eseguiti dal costumista in costumi ‘reali’,
adattandoli agli attori. Uno scanner legge i bozzetti originali e le fotografie
degli attori reali e – quasi come accade nella produzione di un identikit –
inizia a proporre varie soluzioni da un abaco contenente alcune possibili
varianti, su un touch screen.
L’utente,
anche per mezzo di comandi vocali, effettua le verifiche 3D vedendo il costume
man mano che si crea e si modifica, ‘indossato’ da un manichino digitale che
potrà anche assumere varie positure, così come accadrà nella scena reale.
L’utente
potrà modificare i tessuti, i colori, i dettagli, il trucco di scena, le luci.
Alla fine, il
software produrrà anche i modelli per la confezione del costume.
Possibile
variante: l’utente dispone di un campionario di tessuti veri dotati di
sensori. Quando l’utente tocca un tessuto e indica a quale parte del costume
si deve riferire, il sistema lo adotta, eventualmente modificandone i colori, la
scala e l’orientamento del disegno, la pesantezza, il tipo di filato e altri
particolari.
Ulteriori
varianti: visualizzazione del modello in stereoscopia; uso di panorami ad
oggetto; riconoscimento della posa dell’utente e relativo adattamento della
positura del modello digitale.
L’obiettivo
della configurazione è di creare un ambiente nel quale l’utente possa
muoversi o danzare (se è in grado di farlo), creando interattivamente una
coreografia – fatta di immagini, video, suoni, luci ed eventualmente di media
ambientali, quali getti d’aria su superfici di tessuto o getti d’acqua...
– generata dal sistema in stretta relazione con i movimenti dell’utente (e
le eventuali sue indicazioni vocali).
L’utente
genera così una performance ‘personalizzata’, eventualmente
scegliendo tra vari temi di base, potendoli comunque modificare interattivamente
in corso d’opera.
Gli strumenti
usati saranno un tappeto sensibile al calpestio; un sistema di riconoscimento
dei movimenti, delle espressioni del volto e della voce; schermi proiettivi di
vario tipo; focalizzatori del suono; videocamere.
Ulteriori varianti: la silhouette dell’utente è acquisita dal sistema e partecipa da protagonista – con eventuali rielaborazioni digitali - alla creazione della coreografia; uso di pareti deformabili; uso di oggetti in scena, ciascuno con caratteristiche proprie.
Modelli e textures
http://shape.cs.princeton.edu/search.html
http://3d.csie.ntu.edu.tw/~dynamic/cgi-bin/DatabaseII_v1.8/
http://www.freefoto.com/index.jsp
http://astronomy.swin.edu.au/~pbourke/texture/
http://www.mayang.com/textures/
http://www.amazing3d.com/texfree.html
http://www.3dtotal.com/home2/links/links.asp?cat=texture
http://textures.forrest.cz/
http://www.3dcafe.com/asp/meshes.asp
http://www.kit3dmodels.com/
http://www.digitaldreamdesigns.com/3DModels.htm
http://www.3dlinks.com/links.cfm?categoryid=9&subcategoryid=91
http://www.creative-3d.net/free3D.cfm
http://www.3d-resources.com/3d_studio_max_models/
http://www.daz3d.com/index.php
http://www.huntfor.com/3d/links.htm
http://www.planit3d.com/
http://www.poserworld.com/
http://www.brilliantdigital.com/developers/model_browse.asp?cat=FX
http://www.findsounds.com/
File di esempio per simulare la Global illumination
Decomprimere il file ZIP nella cartella Programmi/Maxon\Cinema 4d R9\plugins
Scaricare esempio con luci bianche
File di esempio per swap immagini per Acrobat
File Salva per salvare il file sul proprio PC