NOEMA Home IDEAS
Tecnologie e Società

 

Tecnologie del vivente (2)
Pier Luigi Capucci

 

 

 

 

 

pdf [172 Kb]

 

 

 

 

 

 

[Testo originariamente pubblicato in Mario Morcellini, Michele Sorice (a cura di), Futuri immaginari, Roma, Logica University Press, 1998]

 

 

3. La cultura della comunicazione

 

a. Calcolare e comunicare

Di pochi altri settori lo sviluppo può essere definito spettacolare quanto quello dell’informatica. Dall’invenzione del chip, nel 1971, le prestazioni dei processori sono aumentate di oltre venticinquemila volte, con un incremento che non accenna a diminuire (negli ultimi quattro anni la velocità di calcolo dei processori dei PC si è decuplicata), al punto che è azzardato fare previsioni sul futuro. Alla fine del ‘95 David Patterson, docente di Scienza dei calcolatori all’Università di Berkeley, scriveva: “è come se ora avessimo già a disposizione le macchine del 2000” [2].

Dai primi anni del ‘900 l’evoluzione dei calcolatori si è sviluppata sempre più rapidamente e ha visto succedersi macchine sempre più piccole, veloci, potenti, affidabili, economiche e facili da usare. Il primo calcolatore elettrico è realizzato da Hollerith (che in seguito fonda l’I.B.M.) nei primi anni del ‘900 per il censimento degli Stati Uniti. Il primo calcolatore elettronico è progettato dal tedesco Conrad Zuse, intorno al 1930. L’invenzione del “programma memorizzato”, l’architettura su cui si basano gli attuali computer, è del ‘46, ad opera di von Neumann, mentre risale all’anno seguente quella del transistor. Nel ‘64 viene prodotto il circuito integrato e nel ‘71 Intel, col contributo determinante di Federico Faggin, realizza il microprocessore, o chip. L’aumento delle capacità di elaborazione, la miniaturizzazione dei componenti, l’abbassamento del consumo di energia e dei costi ampliano le possibilità applicative dei calcolatori e aprono la strada al personal computer (PC), progettato sulle esigenze degli utenti (“the computer for the rest of us”). Nel ‘76 nasce l’Apple, nel ‘77 il Commodore e l’Apple II, nell’81 il primo PC dell’I.B.M., poi via via tutti gli altri fino ai “cloni” e alle ultime generazioni di processori PowerPC di Motorola e Pentium di Intel.

Il microprocessore ha realizzato l’informatica distribuita, che ha colonizzato in modo invisibile il nostro habitat e pervaso gli oggetti d’uso comune, rendendoli “programmabili”, “automatici”, arricchendoli di funzioni e facendoli diventare collaborativi, “intelligenti”. I microprocessori tollerano un ampio spettro di condizioni ambientali, consumano pochissimo, praticamente non modificano il costo dell’apparecchiatura a cui sono applicati. Così li troviamo nelle automobili e negli orologi, nei fax e nei frigoriferi, nei videoregistratori e nei giocattoli, nei televisori e nelle macchine fotografiche, negli impianti hi-fi e nei pace-maker, negli aspirapolvere e nei telefoni, nelle macchine utensili e nelle fotocopiatrici, negli antifurto e nei rasoi elettrici… Una popolazione di oscure e ubbidienti entità che opera in maniera trasparente e discreta.

Il mercato dei PC, insieme a quello del software, che oggi ha superato l’hardware in valore economico, diviene sempre meno aziendale e sempre più rivolto all’utente comune. Nel 2000, secondo le previsioni, il volume economico di questo utente avrà abbondantemente superato quello dell’utenza business. Il costo relativamente contenuto del personal computer e la sua versatilità gli aprono le prospettive di una diffusione molto più ampia di quella attuale, al di là dell’utenza specialistica (del resto ormai saturata) e della concentrazione nei paesi più industrializzati, grazie anche alla rapida crescita di economie come quelle del Sud Est asiatico e della Cina, la cui domanda di strumenti informatici è in rapida crescita.

Tutto questo fa del personal, rispetto ad altre tipologie di elaboratori, il segmento economicamente più importante, dinamico e dove esiste maggiore concorrenza. Ciò in gran parte spiega, oltre alla continua discesa dei prezzi, lo straordinario incremento di prestazioni dei personal computer, al punto che oggi la fascia alta di questo segmento ha fatto praticamente scomparire i minicomputer, mentre con le ultime generazioni di processori insegue da vicino le prestazioni delle workstation (i cui produttori, a propria volta, iniziano a muovere verso questo mercato). I personal sono macchine versatili (possono essere impiegati per svariate applicazioni) e dall’architettura modulare (espanderne le funzioni è semplice ed economico). Dal segmento dei PC sono nati i laptop (i portatili), i palmtop o PDA (Personal Digital Assistants), computer che stanno nel palmo di una mano, e i network computer, clients multimediali economici che funzionano in simbiosi con le reti.

Le interfacce grafiche user friendly, la versatilità dei sistemi operativi, la potenza degli attuali processori e la complessità del software hanno contribuito a trasformare i personal computer in collaboratori polivalenti capaci di svolgere più compiti contemporaneamente, automaticamente e anche senza la presenza dell’utente. Oggi i PC sono macchine multimediali, in grado di produrre e gestire informazioni complesse, di scambiarle e inviarle attraverso reti telematiche. Il personal sta diventando una sorta di factotum, incomparabilmente più aperto, espandibile e versatile rispetto ai calcolatori monolitici delle generazioni precedenti. È “uno strumento per la famiglia”, come recita da un paio d’anni la pubblicità.

Predire il futuro dei computer personali è un’impresa difficile, dato il numero di possibilità evolutive e di opportunità tecnologiche che sono aperte e percorribili. Certamente i PC continueranno a incrementare capacità di calcolo e velocità, aprendosi ad architetture, anche multiprocessore, provenienti da categorie superiori di elaboratori, e accresceranno la connettività. Un settore sempre più rilevante farà leva sulla portabilità, trasformando queste macchine in piccoli collaboratori, in personal communicators. Ci sarà bisogno di software più evoluto di quello attuale e di sistemi di memoria più efficienti e di ridotte dimensioni. Le realizzazioni oggi sul mercato mostrano una convergenza degli ambiti dell’informatica (palmtop e computer indossabili) e della telefonia digitale (cellulari con funzioni analoghe a quelle dei palmtop). Entrando in tasca i personal communicators libereranno dalla schiavitù della scrivania, tuttavia molte occorrenze richiederanno uno schermo più ampio (magari piatto, a cristalli liquidi o al plasma, che potrebbe anche essere quello del televisore) e dispositivi di calcolo di maggiore potenza per svolgere operazioni complesse o per giocare (in maniera ben più avvincente di quanto avviene oggi).

L’integrazione di standard e tecnologie, reti miste cavo/satellite, dispositivi e programmi di groupware modulari e ad agenti permetteranno a gruppi di persone di collaborare a distanza in maniera multimediale e in modo molto più efficace di quanto avviene oggi. I computer personali avranno una certa autonomia e intraprendenza, conosceranno le preferenze dei proprietari e impareranno da loro a compiere alcune operazioni, potranno tradurre il parlato in scrittura e rispondere vocalmente. Saranno macchine polivalenti, potranno dialogare senza bisogno di cavi con altri dispositivi ed elettrodomestici. Vivranno a stretto contatto coi loro proprietari, e alcuni di essi potranno inviare e ricevere informazioni mediante il tatto (un progetto di I.B.M. ha già mostrato la possibilità di scambiare informazioni, come per esempio un biglietto da visita, tra due persone mediante una stretta di mano). Grazie al loro costo e alla facilità d’uso avranno una larga diffusione, ma resteranno pur sempre degli oggetti, leggeri e amichevoli, da non dimenticare nelle tasche dei vestiti da portare in lavanderia.

Oggi le ricerche più avanzate sono focalizzate sullo studio di dispositivi di tipo ottico, più veloci di quelli elettronici, per produrre sistemi di memorizzazione a elevata densità e rapido accesso (per esempio di tipo olografico) e di computer ottici. Vi sono inoltre ricerche in corso su dispositivi di memoria di tipo biologico, ma nonostante il fascino dell’idea di ulteriori possibilità di evoluzione dell’“intelligenza delle macchine” è ancora impossibile prevedere sviluppi concreti.

Esiste, tuttavia, un altro approccio all’elaborazione e alla condivisione dell’informazione, sviluppato allo Xerox Parc a Palo Alto fin dai primi anni ‘90, che mette in secondo piano il computer in quanto oggetto e va in direzione di un’informatica invisibile e onnipresente, in linea col fatto che le tecnologie che incidono di più sul modo di vivere sono quelle “trasparenti”, che si confondono con la vita quotidiana, che – come il linguaggio orale, la scrittura, … l’elettricità… – si usano quasi senza pensare, che non richiedono un’attenzione tecnica autoreferenziale consentendo di concentrarsi sugli obiettivi anziché sugli strumenti. Per noi è intuitivo parlare e scrivere. Così, partendo dai presupposti di una tecnologia che si confonde con l’ambiente, è stata sviluppata una visione del futuro informatico chiamata “virtualità materiata” e sono stati creati alcuni strumenti elettronici del tutto simili nell’uso e nella forma ai fogli di carta, ai taccuini e alle lavagne. Una rete senza cavi, che collegherà questi dispositivi mobili e fissi, insieme al software necessario, costituirà il “sistema nervoso” della virtualità materiata.

In una normale stanza di lavoro di solito ci sono centinaia di fogli, diversi taccuini e talvolta una lavagna o uno schermo. Nella virtualità materiata, quindi, in ogni stanza ci saranno centinaia di piccoli computer invisibilmente interconnessi e nascosti dietro l’apparenza di strumenti di uso comune. Negli attuali ambienti informatici, e ancor più nella realtà virtuale, per essere operativi bisogna entrare dentro di essi. Restano fuori gli inesperti e coloro che non hanno i dispositivi adatti, viene escluso tutto ciò che non può essere simulato. Nel mondo della virtualità materiata, invece, contano i gesti compiuti nel mondo fisico consueto, le azioni comuni si traducono in informazione senza bisogno di orpelli.

Anche la virtualità materiata, i cui elementi primari sono l’interconnessione di centinaia di sistemi e la condivisione di dati, come ogni altra tecnologia dell’informazione porta con sé le questioni cruciali della violazione della privacy e della riservatezza, e, più in generale, dell’ambiguità del rapporto tra democrazia e controllo sociale. Il design delle interfacce di relazione con questi dispositivi, e più in generale coi sistemi di gestione e presentazione delle informazioni, sarà uno degli ambiti strategici del futuro.

 

b. Le interfacce: la chiave per l’immaginazione

Per quanto straordinaria, l’evoluzione dei computer, e più in generale dei sistemi di gestione e trattamento delle informazioni, è in prospettiva forse meno interessante di un’altra storia che si sviluppa in parallelo, più vicina alle esigenze degli utenti. Diventando più versatili, i computer si rivolgono a un’utenza sempre più ampia e meno specializzata: è quindi fondamentale rendere più facile l’interazione con la macchina mediante un’interfaccia che sia gestibile anche da utenti non esperti. Così nel ‘75, semplificando il linguaggio Unix, Bill Gates e Paul Allen realizzano il DOS, e nell’84, applicando le ricerche di psicologia cognitiva condotte allo Xerox Parc, l’Apple mette sul mercato il modello Plus, che utilizza il mouse e un’interfaccia grafica a finestre e icone, con tanto di scrivania e cestino. Quella che alla sua uscita sembrò agli addetti ai lavori poco più che un’invenzione ludica, oggi si è affermata come il tipo di interfaccia più utilizzato nei PC per intuitività ed efficienza produttiva, in varie forme e diversi sistemi operativi.

Grazie alle ricerche nell’ambito disciplinare dell’H.C.I. (Human Computer Interaction), l’“ambiente” del computer diviene grafico, cerca di stabilire un’analogia e una corrispondenza tra le azioni nel mondo reale e in quello virtuale, sullo schermo. Analogamente alla rappresentazione grafica di equazioni o dati numerici, che connette fra loro informazioni numeriche visualizzandole come immagini, consentendo la comprensione dell’andamento di un fenomeno in maniera molto più rapida e intuitiva dell’esame dei dati crudi e discreti, in un ambiente a icone non è più necessario, se non per operazioni complesse, memorizzare e utilizzare comandi a caratteri, privi di analogie col mondo reale, digitandoli dalla tastiera: basta spostare il mouse sulle icone che visualizzano le funzioni e compiere una sola rapida e semplice azione: “cliccare”.

La crescita in potenza e velocità dei processori lascia intravedere nuovi sistemi operativi, ancora più intuitivi, basati anche su comandi vocali, che renderanno l’uso del computer sempre più facile e trasparente. Con software modulari l’utente potrà scegliere i componenti in base alle proprie esigenze. Il linguaggio digitale diverrà l’idioma dei sistemi di comunicazione, i quali a loro volta avranno standard compatibili e saranno sempre più interconnessi. La ricerca sulle interfacce sarà dunque uno degli elementi chiave del futuro: già oggi questo settore vede la massiccia convergenza degli investimenti dei produttori di software, delle multinazionali della comunicazione e delle industrie del tempo libero.

Le problematiche relative all’accesso alle informazioni sono importanti quanto quelle inerenti alla quantità e alla qualità delle informazioni. Esse non riguardano solo le questioni di selezione delle informazioni, che rischiano di rendere poco utili i sistemi informativi, oggi risolvibili grazie a figure professionali (i “cacciatori di informazioni”) o ad “agenti intelligenti” capaci di selezionare dati in base a richieste circoscritte. Alcuni “giornali” in Internet, per esempio, possono essere personalizzati per fornire solo le informazioni richieste mediante algoritmi genetici, “agenti personali” che si evolvono adattandosi alle preferenze dell’utente ogniqualvolta legge le notizie e creando un suo profilo personale. Quanto maggiori e precise sono le informazioni fornite, tanto maggiore è la probabilità che il giornale sia tagliato a misura (con ciò sollevando il problema della riservatezza delle informazioni fornite, un punto ancora debole di questi sistemi e di Internet in particolare).

La questione centrale delle interfacce è la semplicità di accesso alle informazioni. Riguarda le decine di milioni di utenti, pressoché digiuni di informatica, che già oggi devono districarsi tra centinaia di programmi via cavo, etere o satellite, o che stanno cominciando a utilizzare i nuovi servizi di televisione interattiva. O ancora, che tra qualche anno potranno fruire, magari da uno schermo TV piatto o da un sistema di proiezione in formato 16:9 o 2:1, canali televisivi (analogici, digitali, via etere, cavo o satellite, interattivi e non) e telefonici; musica e audiovisivi in formato digitale; che potranno gestire servizi telematici e di Internet (come posta elettronica e Web) e operare su dati mediante programmi informatici; che si divertiranno a guardare le proprie immagini fotografiche collegando direttamente al televisore una fotocamera digitale…

Insistere sull’importanza dell’interfaccia non significa, come spesso si ritiene, dare rilievo a questioni di apparenza della comunicazione che sono secondarie rispetto alla discussione aurea sui contenuti. Al contrario, le interfacce influenzano profondamente le opzioni, le modalità d’accesso e i contenuti. In primo luogo gli utenti sceglieranno, da una vastità di proposte spesso equivalenti, quelle che saranno più facilmente raggiungibili. In secondo luogo le interfacce dovranno mediare l’apparenza di programmi e servizi nati per standard, canali e modalità di fruizione diverse (per esempio, una pagina Web è normalmente osservata da meno di un metro di distanza sullo schermo di un computer, mentre lo schermo TV viene guardato da una distanza molto maggiore). E infine, la semplicità d’accesso alle informazioni, il livello della soglia da superare per raggiungerle, sarà un elemento importante di esclusione o di partecipazione, dunque di democrazia.

Una ricercatrice e artista tedesca, Monika Fleischmann, ha definito l’interfaccia come “la chiave per l’immaginazione” [3]. In futuro, oltre a interfacce vocali e a dispositivi presi in prestito dalla realtà virtuale, sarà possibile interagire con le informazioni mediante segnali elettrici prodotti dal corpo, o impulsi nervosi e muscolari, impartire comandi fissando lo sguardo su porzioni dello schermo, comunicare, in maniera istantanea, col pensiero. Tutto questo è già in corso di sperimentazione [4]. Forse gli utenti del Duemila si sorprenderanno nell’apprendere che la comunicazione neurale tra umani e computer è divenuta possibile grazie al lavoro di tenaci pionieri con handicap fisici.

 

c. Lo spazio remoto e il tempo reale

Oggi tra la diffusione in rete, da parte di un’agenzia di stampa, di una notizia politicamente rilevante e la reazione dei mercati passa soltanto un minuto [5]. La comunicazione istantanea a distanza è ormai un’acquisizione consolidata che ha numerose applicazioni. Per millenni, tuttavia, è stato un problema culturalmente secondario, tecnicamente limitato o poco praticabile. Nel diciassettesimo secolo questa idea diventa un argomento della letteratura scientifico-utopica, vengono compiuti tentativi e proposte varie tecniche, compresa la telepatia, fino alla costruzione, alla fine del ‘600, del telegrafo ottico, che dovrà tuttavia attendere un secolo prima della sua adozione, nella Francia della Rivoluzione, a scopi militari. Poi, in circa due secoli, avviene una straordinaria fioritura di tecnologie e sistemi per comunicare a distanza.

È possibile quantificare l’accelerazione dell’informazione. Prima del telegrafo la velocità dell’informazione aveva lo stesso ordine di grandezza di quella degli uomini, degli animali e delle merci, e il suo spostamento implicava quello dei suoi latori. Certo esistevano, fin dall’antichità, sistemi di segnalazione più veloci, basati per esempio sulla luce, sul fumo o di tipo sonoro (come il leggendario Olifante che Roland suona, morendo a Roncisvalle, nella Chanson), ma erano limitati alla trasmissione di informazioni elementari (questi sistemi li ritroviamo nelle luci degli aerei e dei veicoli, nei fari portuali, nei clacson delle automobili, nelle sirene delle navi…). Oggi le persone e le merci possono viaggiare fino alla velocità di due o tremila kilometri l’ora, ma l’informazione, mediante le onde elettromagnetiche, può essere trasmessa alla velocità della luce. Cioè essere oltre cinquecentomila volte più rapida delle persone e delle cose, con un costo di trasferimento di gran lunga meno oneroso. Come è potuta avvenire questa trasformazione, che ha portato a una comunicazione quasi istantanea e planetaria?

Nei documenti cartacei le informazioni sono scritte o stampate su un supporto, il foglio di carta, e si spostano insieme ad esso. Da sempre il supporto (ciò che porta le informazioni, nell’accezione latina di contenerle e insieme presentarle) ha avuto due funzioni compresenti e inseparabili, solo logicamente distinguibili: contenere e insieme mostrare, trasportare e nel contempo presentare, le informazioni. Nei documenti cartacei queste due funzioni sono svolte da un unico supporto: il foglio di carta. Nei media moderni e contemporanei, tuttavia, a compiere le due funzioni sono due supporti, distinti e separati, uno per ognuna di esse: c’è un supporto visualizzatore, con la funzione di mostrare le informazioni, e un supporto contenitore, con la funzione di contenere e conservare la codificazione di quelle informazioni. Il foglio di carta svolge entrambe le funzioni, o, se vogliamo, i due supporti fisici coincidono nello stesso supporto. Nel cinema, nel video e nel computer, invece, questa coincidenza non esiste più: i dati risiedono su supporti contenitori (la pellicola, la banda magnetica, l’hard disk) che sono diversi e fisicamente separati da quelli visualizzatori su cui i dati vengono fruiti (lo schermo cinematografico, quello catodico).

Poiché questi supporti sono fisicamente separati, possono trovarsi anche in luoghi remoti, basta che siano compatibili tra loro e collegati in modo tale da consentire il passaggio delle informazioni. Nelle reti (televisive, telematiche) il supporto di visualizzazione (in genere lo schermo catodico) e quello che contiene i dati (il nastro magnetico del videoregistratore, l’hard disk del computer remoto, il server via cavo o via etere) possono essere in continenti diversi. L’importante è che esista compatibilità tra il formato delle informazioni e i sistemi e i protocolli di codifica e decodifica lungo il percorso da un supporto all’altro, anche attraverso canali di tipo diverso. Che questi sistemi sappiano riconoscere, gestire e presentare correttamente queste informazioni. E, naturalmente, che vi sia energia per compiere questo tragitto.

A differenza della pagina di carta, dunque, dove l’informazione è inseparabile dell’oggettualità fisica del supporto che la contiene, così che per essere trasportata e visualizzata (comunicata) si deve trasportare anche quest’ultimo, nei media telematici e di telecomunicazione l’informazione può viaggiare, codificata in impulsi elettrici o elettromagnetici, da almeno un supporto contenitore a un numero anche molto grande di supporti visualizzatori remoti, dove viene decodificata e restituita in forma di comunicazione sensorialmente e significativamente riconoscibile. Per questo, senza il peso e l’inerzia del supporto da portare con sé, può surclassare la velocità delle persone e delle cose, e consentire una comunicazione remota in tempo reale. Se questa comunicazione è in formato digitale, può essere facilmente condivisa, discussa, manipolata, archiviata, stampata, nuovamente immessa in rete... in una catena teoricamente senza fine.

Nell’evoluzione delle possibilità di comunicazione, in questi ultimi anni abbiamo assistito allo sviluppo geometrico delle reti telematiche, tra cui Internet, una rete di reti, o, più correttamente, l’insieme dei computer collegati tra loro che condividono lo stesso protocollo di comunicazione. Il fatto che la sua crescita sia avvenuta inizialmente al di fuori dei riflettori, testimonia della sua utilità: una “collettività” molto ampia, culturalmente varia, dagli interessi disparati si serve, implementandolo, di un sistema di scambio di informazioni per raggiungere obiettivi concreti e significativi.

Lo “spazio telematico” costituisce una nuova acquisizione della comunicazione umana. La sua influenza, di pari passo con la crescita dei suoi utenti, è destinata a modificare abitudini e stili di vita, di lavoro, di divertimento, a influenzare modalità di conoscenza e socializzazione, e a disperdere quel che non è più ritenuto utile. In un futuro prossimo servizi di connessione generalizzati e ad alta velocità (anche misti cavo/satellite) consentiranno lo scambio in rete di informazioni molto più complesse e “pesanti” (multimediali e sensomotorie) di quelle attuali: telelavoro, teleconferenza, telepresenza, Web TV…, saranno termini e attività a cui dovremo abituarci. Crescerà il volume delle transazioni economiche effettuate in rete. L’interconnessione planetaria in tempo reale renderà la comunicazione sempre più interdipendente e la sua portata più ampia.

Va detto, infine, che questa dimensione simbolica condivisa in remoto è ancora per pochi, solo per quella parte del Pianeta che chiamiamo “Occidente avanzato”, e all’orizzonte non si intravedono ragioni per cui questa situazione possa cambiare. Inoltre, questa comunicazione non riguarda tutte le informazioni sensoriali. Per ora possono essere trasmesse e condivise informazioni visuali e acustiche e, con molta più difficoltà, quelle tattili (limitatamente a quelle termiche e di contatto), cinestetiche e sensomotorie. Ma è ancora impossibile trasmettere quelle chimiche, riguardanti l’olfatto e il gusto, se non trasducendole nel registro audiovisuale o sinesteticamente. Per quanto straordinario e di gran lunga più complesso e articolato di quello dell’oralità e della scrittura, il mondo virtuale condiviso dei new media è ancora molto più povero di quello reale.

 

Note

2) David Patterson, “Microprocessori del 2020”, Le Scienze, n. 327, novembre 1995, p. 25. [back]

3) Nel corso del suo intervento al simposio internazionale “ArsLab. L’ombra delle reti”, tenutosi a Torino presso la Galleria Civica d’Arte Moderna e Contemporanea l’11 e il 12 aprile 1997. Monika Fleischmann è direttore artistico del Department for Visualization and Media Systems Design e direttore del settore di computer art del GMD (German National Research Center for Information Technology). [back]

4) Hugh S. Lusted e Benjamin R. Knapp, “Comandare i calcolatori con segnali nervosi”, Le Scienze, n. 340, dicembre 1996. [back]

5) Cfr. S.A., “E la Banca d’Italia: ‘Incrociamo le dita’”, La Repubblica, anno 20, n.63, 16 marzo 1995, p.2. [back]

 

Bibliografia

A.A.V.V., “Clonazione: problemi etici e prospettive scientifiche”, allegato a Le Scienze, n. 345, maggio 1997.

Abruzzese, Alberto, Analfabeti di tutto il mondo uniamoci, Genova, Costa & Nolan, 1997.

Anceschi, Giovanni (ed.), Il progetto delle interfacce, Milano, Domus Academy, 1990.

Antinucci, Francesco, “Con Giotto nella Città Ideale”, Virtual, n. 3, novembre 1993.

Atlan, Henry, “Il ‘genetico’ non è nel gene. DNA: programma o dati?”, Pluriverso, n.2, marzo 1996.

Barthes, Roland, Critica e verità, Torino, Einaudi, 1969.

Barthes, Roland, La camera chiara, Torino, Einaudi, 1980.

Bateson, Gregory, Mente e natura, Milano, Adelphi, 1988.

Batoy, Arsenio, “Document Image Storage & Retrieval Product Options”, Advanced Imaging, vol. 11, n. 3, marzo 1996.

Beardsley, Tim, “Luci e ombre sul Progetto Genoma”, Le Scienze, n. 334, giugno 1996.

Bell, Alan E., “I compact disc del futuro”, Le Scienze, n. 337, settembre 1996.

Benjamin, Walter, L’opera d’arte nell’epoca della sua riproducibilità tecnica, Torino, Einaudi, 1966.

Bozzo, Massimo, La grande storia del computer, Bari, Dedalo, 1997.

Capucci, Pier Luigi (ed.), Il corpo tecnologico, Bologna, Baskerville, 1994.

Capucci, Pier Luigi, “Tecnologie del corpo e habitat cognitivi simbolici”, Pluriverso, n. 4, settembre 1996.

Cavalli-Sforza, Luigi Luca, Geni, popoli e lingue, Milano, Adelphi, 1996.

Ceruti, Mauro, Evoluzione senza fondamenti, Bari, Laterza, 1995.

Dani, Filiberto (ed.), La storia del computer, Roma, SARIN, 1990.

Davis, Andrew W., “Cable TV vs Telephone as Image and Video Distribution, Communication Pipelines”, Advanced Imaging, vol. 11, n. 1, gennaio 1996.

De Kerckhove, Derrick, Brainframes, Bologna, Baskerville, 1993.

Dunn, James F., “Beyond Trade-Offs: High Res Imaging With CMOS Sensors & Cameras”, Advanced Imaging, vol. 12, n. 1, gennaio 1997.

Fancer, Carol H., “Le carte intelligenti”, Le Scienze, n. 338, ottobre 1996.

Fedele, Francesco, “L’evoluzione dell’uomo: una nuova scimmia prende forma”, Le Scienze Quaderni, n. 73, settembre 1993.

Fester, Mordechai, “Video over ATM. Practical Considerations for Improving the Networked Image”, Advanced Imaging, vol. 11, n. 3, marzo 1996.

Flichy, Patrice, Storia della comunicazione moderna, Bologna, Baskerville, 1994.

Gerbel, Karl e Peter Weibel (eds.), Ars Electronica ‘94. Intelligente Ambiente, Wien, PVS Verleger, voll. 1 e 2, 1994.

Grimm, Leigh, “New Category: The Personal Digital Photo Printer”, Advanced Imaging, vol. 12, n. 2, febbraio 1997.

Hamit, Francis, “Curators View the Virtual Museum: Networked, On-Line Collection Viewing?”, Advanced Imaging, vol. 10, n. 9, settembre 1995.

Hénin, Silvio e Massimo Zaninelli, “Il calcolo automatico negli Stati Uniti, dalle origini al 1950”, Le Scienze, n. 344, aprile 1997.

Imbert, Michel, “Il cervello: le diversità nelle specie”, in Amleto Lorenzini (ed.), La comunicazione nella storia, vol. 1, STET-SARIN, 1989.

Karl, Thomas R. e N. Nicholls, J. Gregory, “Gli effetti delle attività umane sul clima globale”, Le Scienze, n. 347, luglio 1997.

Kelly, Kevin, Out of Control, Milano, Apogeo, 1996.

Lake, Don, “Cameras: If Pixels Were Here”, Advanced Imaging, vol. 12, n. 2, febbraio 1997.

Langton, Charles G. (ed.), Artificial Life, Reading (Mass.), Addison-Wesley, 1989.

Langton, Charles G. e C. Taylor, J.D. Farmer, S. Rasmussen (eds.), Artificial Life II, Reading (Mass.), Addison-Wesley, 1992.

Larish, John, “What ‘Low-End’ Digital Still Cameras Really Need Now”, Advanced Imaging, vol. 12, n. 2, febbraio 1997.

Laurel, Brenda (ed.), The Art of Human-Computer Interface, Reading (Mass.), Addison-Wesley, 1990.

Leebaert, Derek (ed.), The Future of Software, Cambridge (Mass.), The MIT Press, 1996.

Leroi-Gourhan, André, Il gesto e la parola, Torino, Einaudi, 1977.

Longo, Giuseppe O., “Reti e cultura”, Pluriverso, n. 2, marzo 1996.

Lusted, Hugh S. e Benjamin R. Knapp, “Comandare i calcolatori con segnali nervosi”, Le Scienze, n. 340, dicembre 1996.

Maes, Pattie, “Il software intelligente”, Le Scienze, n. 327, novembre 1995.

Maldonado, Tomás, Critica della ragione informatica, Milano, Feltrinelli, 1997.

Martignago, E. e V. Pasteris, S. Romagnolo, Sesto potere, Milano, Apogeo, 1997.

Maturana, Humberto R. e Francisco G. Varela, Autopoiesi e cognizione. La realizzazione del vivente, Milano, Marsilio, 1988.

Maturana, Humberto R. e Francisco G. Varela, L’albero della conoscenza, Milano, Garzanti, 1992.

Mazor, Barry, “Cameras for Digital Imaging: A Changing Picture for the New Year”, Advanced Imaging, vol. 11, n. 1, gennaio 1996.

Merleau-Ponty, Maurice, Fenomenologia della percezione, Milano, Il Saggiatore, 1965.

Merleau-Ponty, Maurice, Il corpo vissuto, Milano, Il Saggiatore, 1979.

Meyrowitz, Joshua, Oltre il senso del luogo, Bologna, Baskerville, 1993.

Miles, Ian e H. Rush, K. Turner, J. Bessant, I.T. Information Technology, Bologna, Baskerville, 1993.

Milgram, Paul, “Augmented Reality for Telerobotic Control: A Practical Approach for Today’s Bandwiths”, Advanced Imaging, vol. 11, n. 5, maggio 1996.

Moravec, Hans, Mind Children: The Future of Robot and Human Intelligence, Cambridge (Mass.), Harward University Press, 1989.

Negroponte, Nicholas, Essere digitali, Milano, Sperling & Kupfer, 1996.

Nolfi, Stefano e D. Parisi, F. Cecconi, “Evoluzione e apprendimento”, Sistemi Intelligenti, n. 2, agosto 1992.

Ong, Walter, Oralità e scrittura. Le tecnologie della parola, Bologna, Il Mulino, 1986.

Pagoulatos, Akyra, “The transition to DVD: The Critical Mass Beyond CD-ROM”, Advanced Imaging, vol. 11, n. 6, giugno 1996.

Parisi, Domenico, “Vita artificiale e società umane”, Sistemi Intelligenti, anno VII, n. 3, dicembre 1995.

Parisi, Domenico, “Organismi come artefatti, artefatti come organismi”, MagNet, http://www.compositori.it, 15 marzo 1997.

Patterson, David A., “Microprocessori del 2020”, Le Scienze, n. 327, novembre 1995.

Pentland, Alex P., “Stanze intelligenti”, Le Scienze, n. 334, giugno 1996.

Pilbeam, David, “L’evoluzione degli ominoidei e degli ominidi”, Le Scienze Quaderni, n. 73, settembre 1993.

Pucci, Emilio, L’invenzione del fax, Roma, SEAT, 1994.

Rawlins, Gregory J.E., Moths to the Flame. The Seductions of Computer Technology, Cambridge (Mass.), The MIT Press, 1996.

Rawsthorn, Alice, “Digital Video Disc Sales on a Roll”, The Financial Times, 20 giugno 1997, p. 3.

Reis, Charles, “Today’s Digital Camcorders Used for Still Photo”, Advanced Imaging, vol. 11, n. 11, novembre 1996.

Rossi, Pietro (ed.), La memoria del sapere, Bari, Laterza-SEAT, 1988.

S.A., “Advanced Television & Digital HDTV: What Happens Now?”, Advanced Imaging, vol. 12, n. 1, gennaio 1997.

S.A., “E la Banca d’Italia: ‘Incrociamo le dita’”, La Repubblica, 16 marzo 1995, p.2.

Serres, Michel, Il contratto naturale, Milano, Feltrinelli, 1991.

Simon, Herbert, Le scienze dell’artificiale, Bologna, Il Mulino, 1988.

Spencer, Harvey, “Intranet Tool Platform Portability: A Threat to PC Document Imaging?”, Advanced Imaging, vol. 11, n. 5, maggio 1996.

Stengers, Isabelle, “Il cuore di Dio e la sostanza della vita”, Pluriverso, n. 1, dicembre 1995.

Tesler, Lawrence G., “Tecnologie e reti informatiche degli anni novanta”, Le Scienze, n. 279, novembre 1991.

Thomas, Peter J. (ed.), The Social and Interactional Dimensions of Human-Computer Interfaces, Cambridge (Mass.), Cambridge University Press, 1995.

Tosi, Maurizio, “Comunicazione e evoluzione sociale nella preistoria”, in Amleto Lorenzini (ed.), La comunicazione nella storia, vol. 1, STET-SARIN, 1989.

Weibel, Peter, “Mondi virtuali: i nuovi corpi dell’imperatore”, in Pier Luigi Capucci, Realtà del virtuale, Bologna, Clueb, 1993.

Weiser, Mark, “I calcolatori del XXI secolo”, Le Scienze Quaderni, n. 75, dicembre 1993.

Yencharis, Len, “So Where Do We Go From Here?”, Advanced Imaging, vol. 12, n. 1, gennaio 1997.

 







Projects





Cerca dentro NOEMA - Search in NOEMA




Iscriviti! - Join!

 

RSS

 

Top