NOEMA Home IDEAS
Tecnologie e Società



CHAOS vs. BUSINESS
un'indagine sui motori di ricerca

a cura di Claudio Parrini e Ferry Byte di sTRANOnETWORK

http://strano.net/chaos

 

pdf (68 Kb)



Tentare una ricognizione per delineare lo stato dell'arte della ricerca delle informazioni in Rete ci sembra doveroso e necessario in un momento in cui lo sviluppo di INTERNET è veramente impressionante - si pensi che in Cina nel 1997 gli utenti erano 200.000 e nel 2.003 saranno circa 35 milioni ("BDA", Istituto indipendente di ricerca cinese); l'accelerarsi dell'e-commerce, l'incremento del free-net, ed altro ancora.

Tutti elementi che ci inducono a riflettere in maniera critica su quanto sia importante l'organizzazione e la distribuzione dell'informazione, quindi di riflesso la gestione di Internet, ruolo che viene ricoperto in parte determinante dai motori di ricerca.

Scopo di questa trattazione è analizzare la struttura e la funzione dei principali motori di ricerca, e contemporaneamente individuare alcuni aspetti etici sui quali focalizzare l'attenzione.

Infatti se da un lato il servizio che viene offerto da questi strumenti è di grande aiuto per chi opera nel cyberspazio, dall'altro lato occorre denunciare come, per certi versi, rappresentino un collo di bottiglia, un ostacolo, un filtro posti fra il cosiddetto utente finale e il suo diritto di reperibilità e fruizione dell'informazione in Rete; in altri termini il fatto di quanto sia oneroso il pedaggio di questo servizio.

Per il superamento di tale problematica abbiamo individuato un valido aiuto nella contrapposizione di due principi: i principi del CHAOS e quelli del BUSINESS - da qui il titolo

CHAOS vs. BUSINESS


Che il CHAOS sia sinonimo e fonte di vita non può essere certo diretto oggetto di questa modesta trattazione, ma è risultato essere un assunto di importanti ricerche e decisivi studi sia del passato, nella scienza basti pensare al principio dell'evoluzione di Darwin (cfr. "La rete della vita" di F. Capra), che del presente, quasi tutta la matematica d'avanguardia, in particolare quella applicata allo studio dei fenomeni naturali si basa su principi "caotici"; nell'ultimo decennio perfino la chimica di sintesi ha abbandonato lo stereotipo della chimica ortodossa (e lineare) per un modello di chimica "random" (l'attuale chimica combinatoria, in inglese CombiChem, si fonda proprio su sintesi casuali, non lineari e simultanee, vedi M. Castigli, "Altrove" n. 6, NAUTILUS 1999), così l'arte in molti approcci, stili e movimenti (Dada, Fluxus) ha avuto come riferimento le teorie del chaos.

Il BUSINESS si incarna e prospera su ciò che è generato casualmente dagli esseri viventi: ogni strategia commerciale o di marketing prende spunto da ciò che più di bizzarro e quindi spesso generato per caso viene prodotto da esperienze artistiche, scientifiche e politiche e circoscrivendo il nostro problema, anche i motori di ricerca e soprattutto i portali non sono altro che appropriazioni e rimaneggiamenti di antiche abitudini e consuetudini di navigatori della prim'ora che costruivano e distribuivano ai propri amici elenchi di bookmarks costruiti con passione e perseveranza in anni di navigazione nel cyberspazio.

Una volta che il chaos viene raccolto ed adottato dal business viene strutturato e sfruttato a scopi commerciali generando dei meccanismi che sono ovviamente fruttuosi per chi li realizza ma diventano poi un peso, una forzatura e un limite per chi li deve utilizzare.

primo risultato ottenuto su altavistadigitando motori di ricerca domenica 6 febbraio 2000 ore 11.30

primo risultato ottenuto su altavista digitando "motori di ricerca"
domenica 6 febbraio 2000 ore 11.30


I motori di ricerca e i portali (intendendo chiaramente chi li gestisce) non sono da meno: nascono avvalendosi di una tecnologia sviluppata in ambiti di ricerca (come Internet) spesso frequentati da soggetti quanto meno stravaganti (il "padre" di Fidonet è un anarchico gay) i quali si preoccupano di mantenere la libera diffusione dei loro "prodotti"; dopodiché sussungendo alcuni caratteri ed usi di creativi navigatori esperti "avanguardisti" (come nell'esempio citato la composizione della lista dei siti top dedicati ad un argomento specifico) si lanciano nel business di "fare la rete a fette" e venderne il pezzo più apparentemente succulento al miglior offerente

Nel momento in cui scatta il profit avviene il giro di vite, dalla generazione spontanea, comunitaria, caotica e vitale si passa al mortifero irrigidimento di sfruttamento commerciale, simbolo di un rapace e spregiudicato mondo economico.

Vediamo in che modo specificamente, secondo noi, porre rimedio al problema con gli stessi strumenti del chaos, usando cioè un antidoto della stessa natura.

La RETE è un insieme di numeri IP (nodi): 195.250.236.58 è un nodo della rete che corrisponde a http://www.ecn.org ("Isole nella Rete", portale di movimento), ogni nodo numerico della rete corrisponde principalmente a un nome alfabetico ma può ospitare attraverso dei server virtuali tanti altri nomi simbolici, su 195.250.236.58 è ospitato per esempio anche il dominio http://www.forteprenestino.net. Ogni dominio alfabetico (detto anche nome simbolico) al suo interno può ospitare directory e sub-directories. Come risultato, la Rete è una quantità pressoché infinita ma sicuramente finita di pagine web (oltre che tanti altri importantissimi servizi di posta, newsgroups, IRC, ecc.)

I motori di ricerca prendono in considerazione ovvero riescono a coprire una parte piccolissima della Rete (Altavista il 12 per cento, Northernlight il 16 per cento Lycos il 2,5 per cento ecc.); oltretutto la parte di Internet che indicizzano è soprattutto di tipo commerciale (dossier di S. Lawrence e C. Lee Giles in NATURE, Vol.400, 8 luglio 1999, http://www.nature.com).

Questa parte della Rete viene scandagliata periodicamente secondo impostazioni precise e variabili da motore a motore, alcuni motori di ricerca poi, come Yahoo!, hanno alle spalle, più che agenti di ricerca software che vanno a caccia di pagine, apposite redazioni composte da personale umano che scelgono sito per sito a seconda dei propri gusti e delle direttive redazionali del motore di ricerca stesso.

primo sito trovato su northernlightdigitando motori di ricerca domenica 6 febbraio 2000 ore 11.30

primo sito trovato su northernlight digitando "motori di ricerca"
domenica 6 febbraio 2000 ore 11.30

Per una sintetica dissertazione sull'INDICIZZAZIONE bisogna innanzitutto distinguere tra indicizzazione manuale e automatica. In entrambi i casi si tratta di perlustrare il WordWideWeb reperendo materiale e in un secondo tempo archiviare ed aggiornare i database dei motori di ricerca.

La prima avviene nei casi come Yahoo! o LookSmart dove gli editori recensiscono i siti individualmente attraverso apposite redazione seguendo parametri prestabiliti, oppure sulle guide o sui cataloghi come Open Directory nei quali gli utenti stessi si occupano di individuare e segnalare i siti.

La seconda consiste nell'applicazione di agenti software intelligenti definiti robot (il loro nome specifico è vario: spider, crawler, Web wanderer, ant, worm); questi in base a istruzioni predefinite di coordinate per la caccia "scandagliano" la Rete, catturando i documenti mediante la comprensione delle parole chiave e la costruzione delle frasi, inserendo poi il codice HTML delle pagine in un computer remoto che serve da magazzino. Il lavoro dei robot deve essere veloce, poco ingombrante e sicuro. Terminata questa fase inizia l'indicizzazione che attraverso registrazioni e codifiche classifica i dati che in seguito saranno pronti per essere interrogati.

Il motore di ricerca infine tramite la sua personale interfaccia permette ai navigatori di effettuare le ricerche nelle diverse modalità e tecniche.

Quando un cosiddetto utente finale interroga un motore di ricerca come Altavista coscientemente oppure anche inavvertitamente (se digita qualcosa nell'indirizzo del browser che non corrisponde ad una URL corretta viene ridiretto come richiesta a un predefinito motore di ricerca dal browser stesso) NON interroga tutta la rete in tempo reale ma solo un pezzetto della rete scelto dai "boss" del motore stesso secondo i loro gusti e soprattutto secondo accordi commerciali presi con le grandi multinazionali.

Motori di ricerca e portali sono quindi FILTRI E COLLI DI BOTTIGLIA DELL'ACCESSO ALL'INFORMAZIONE in quanto vi è una scelta pilotata consapevole dettata anche da esigenze di puro business nel prendere in considerazione una parte di Rete piuttosto che un'altra.

L'utente quindi interroga un database predefinito ed aggiornato ovviamente non in tempo reale (ecco perché spesso vengono recensite pagine non più esistenti) secondo modalità semplici o avanzate.

primo sito trovato su ariannadigitando motori di ricerca domenica 6 febbraio 2000 ore 11.30

primo sito trovato su arianna digitando "motori di ricerca"
domenica 6 febbraio 2000 ore 11.30


Non esiste un metodo universale per compiere ricerche in Rete, si può dire che il processo nasca da un interscambio tra conoscenza tecnica dello strumento che si utilizza, scaltrezza e tanta creatività.

La scelta del motore di ricerca da usare è importante perché ognuno ha una diversa interfaccia grafica che permette di visualizzare svariate opzioni: dall'inserire fra virgolette l'intera frase alla scelta della lingua, del dominio al refine ecc. e soprattutto l'efficace help on line. Esiste sempre una modalità semplice che consiste nell'inserimento della sola keyword, o effettuare delle varianti come: l'asterisco * a fine parola, che permette di trovare più termini con la stessa "radice", la possibilità di vedere quanti link ho verso il mio sito, di localizzare le immagini con lo stesso nome, ecc. Inoltre c'è una modalità avanzata che si basa essenzialmente sull'uso degli operatori logici booleani, la quale offre una maggiore potenzialità e precisione.

Da aggiungere i METASEARCH ENGINE (detti anche metacrawler) nei quali si può attuare una ricerca combinata sui principali motori di ricerca (su questa parte manualistica potete far riferimento con più precisione alla nostra appendice).

In seguito al via dato alla ricerca, in che maniera si ottiene il risultato?

L'aspettativa è perfettamente riassunta nella frase: "Quando fai una domanda non vuoi dieci milioni di risposte; vuoi le migliori dieci...", (Bruno Henry, "Wired" nÍ7 nov.1999, pag.99).

primo sito trovato su yahoo digitandomotori di ricerca domenica 6 febbraio 2000 ore 11.30

primo sito trovato su yahoo digitando "motori di ricerca"
domenica 6 febbraio 2000 ore 11.30

Il cosiddetto RANKING (il posizionamento dei primi siti nella hit dei risultati) non è casuale, anch'esso risponde ad esigenze di mercato; se interrogo un motore di ricerca con la stringa MODA è probabile che ottenga migliaia di risposte ma è altamente probabile che le prime decine di pagine di risultati (che sono poi quelle che è più probabile mi vada a vedere) corrispondano a pagine che aziende commerciali hanno pagato per farle emergere nelle hit delle risposte del motore di ricerca.

Motori quindi come FILTRI - MECCANSIMI DI CENSURA - dell'informazione telematica in quanto propongono come primi risultati delle ricerche quelli suggeriti da accordi commerciali ed esigenze di business perché se è pur vero che la maggior parte dei motori di ricerca offrono l'opportunità all'utenza di aggiungere tramite i comandi ADD URL ADD PAGE ecc. la propria pagina nell'elenco di indicizzazione, è altrettanto vero che non si avrà parità di visibilità di una ditta che paga per avere un link in evidenza su un portale o per apparire fra i primi dieci URL alla richiesta di ricerca mirata. Ciò tuttavia non toglie che un'attenta analisi di come si indicizzano i motori e quindi un buon utilizzo delle tattiche per apparire in cima al report siano molto importanti e vantaggiosi.

Esistono degli accorgimenti e trucchi per migliorare il proprio ranking.

Tralasciando il fatto che pagando si può delegare il nostro inserimento e posizionamento alle agenzie di servizi appositi, si può iniziare dalla scelta tra i motori di ricerca più famosi e utilizzati iscrivendosi manualmente.

Ma le "regole" che tutti dovrebbero adottare si possono così riassumere:

1) Uso strategico delle keyword (parole chiave per identificare il sito). Non poche ma non troppe - ad esempio se il vostro sito riguarda l' ARTE DIGITALE IN ITALIA, nelle prima linea mettete ARTE poi ARTE DIGITALE infine nella terza lista ARTE DIGITALE ITALIA - , la parola a cui volete dare più rilievo (ARTE) inseritela nel codice HTML nei luoghi più disparati oltre i META tag, tipo il <title>, nel paragraph heading <h2> </h2>..., nel source tag all'interno del campo ALT, srivetele in miniscolo, le iniziali maiuscole e i resto minuscolo o interamente maiuscole, non ripetendo la stessa keyword all'interno di una sezione.

2) Il Meta tag. Si tratta di un marcatore collocato nell'HEADER della pagina dove vengono scritte le parole chiave e la descrizione del sito, i più noti ed efficaci sono "Keywords" e "Description".

3) Usare piccoli titoli occhiello che attirino il visitatore e nello stesso tempo lo spider.

4) Non usare intestazioni grafiche, sostituendole con i CSS o Paragraph Heading.

5) Non usare i frame, la pagina che li contiene non offre istruzioni allo spider, se ciò è necessario abbiate l'accortezza di costruire un documento NOFRAME.

6) Non usare Lead Page, ovvero pagine ad hoc che contengono tutte le malizie possibili.

7) Non usare Auto Forwarding Page, cioè pagine che automaticamente inviano l'utente ad un'altra pagina.

8) Non usare il Cloacking, copiando cioè i dati di un sito già presente, è controproduttivo al massimo se veniamo scoperti.

9) Non cambiare spesso il tag <title>, rischiando di far nascere dei doppioni inutili.

10) Aggiornare di frequente i contenuti del sito.

Il modo in cui gli utenti si rapportano ai motori di ricerca è divenuta materia di studio e oggetto di lavoro di molti motori . Riportiamo come esempio estremo quello di alcuni motori di ricerca che come fonte d'informazione prendono le richieste ed i risultati delle ricerche svolte dagli stessi utenti sui principali motori di ricerca; i.e. nel caso di risultato di LINUX come stringa di ricerca si offrono le pagine più richieste dagli utenti sui tradizionali motori di ricerca. Come lo studio del comportamento degli utenti sui motori di ricerca possa essere sfruttato anche per monitorare aspirazioni o ansie dell'utenza in rete (scoppia una moda o un evento tragico ed è così possibile, attraverso il tipo e quantità di richieste degli utenti sui motori di ricerca, studiare la reazione di una parte della popolazione a tale fenomeno) lo lasciamo all'immaginazione e alla PARANOIA di chi legge questo documento... ;-)

elenco di discussioni trovate su dejanewsdigitando motori di ricerca domenica 6 febbraio 2000 ore 11.30

elenco di discussioni trovate su dejanews digitando "motori di ricerca"
domenica 6 febbraio 2000 ore 11.30

Il FUTURO dei motori di ricerca potrebbe emergere dall'attuale logica di client-server ed avviarsi su strutture di middle-ware in cui il codice di programmazione (interrogazione-indicizzazione) non è più residente su client o server ma condiviso (middleware) e nomade su sistemi pronti ad affrontare i relativi, enormi problemi di sicurezza di un codice nomade che interagisce su sistemi diversi. Tutto ciò potrebbe quindi amplificare i problemi trattati di filtro-monitoraggio-pilotaggio dell'informazione in Rete ma anche offrire qualche soluzione agli stessi.

Noi, nel nostro piccolo, a livello per ora teorico (ma non disperiamo di avventurarci con l'aiuto di qualche sistemista-programmatore e di un accorto mecenate in un futuro prossimo in qualche sperimentazione pratica) proviamo a fornire alcune indicazioni che - utilizzando alcuni paradigmi del chaos - potrebbero essere utili per uscire da queste dinamiche, per lo più sconosciute alla maggior parte della cittadinanza telematica, ma a nostro parere segnate da evidenti e pesanti manipolazioni dell'informazione e dell'accesso all'informazione.

prima proposta: SCANNERIZZAZIONE CAOTICA DELLA RETE.

Studiare sistemi che permettano una scelta casuale della parte di rete da indicizzare (qualsiasi motore di ricerca o portale può solo indicare-selezionare una parte della rete visto le sue dimensioni e caratteristiche raggiunte negli ultimi anni) e contemporaneamente cercare di privilegiare interessi non solo di business ma anche di cordate di interessi no-profit tentando per esempio di sviluppare motori di ricerca che indicizzino tratti specifici della rete come quello del volontariato, dell'antagonismo ecc. ; privilegiare cioè meccanismi (tutti da sperimentare) che siano orientati al reperimento di informazione in Internet partendo da indirizzi casuali ma possibili della Rete stessa.

Un'ipotesi sarebbe quella di indicizzare parte della Rete partendo da IP numerici oppure nomi simbolici possibili.

Auspichiamo quindi che per una certa (piccola) parte, i motori di ricerca prendano in considerazione la possibilità di generare indirizzi simbolici possibili della rete come

www.parola_possibile_in_italiano.it

oppure

www.word_in_english.org.

e assumere l'eventuale sito trovato per caso con i suoi relativi links come parte delle loro basi di conoscenza.

Lo stesso potrebbe essere fatto ipotizzando indirizzi numerici ip della Rete fra quelli potenzialmente destinati ad ospitare server web. Una volta "azzeccato" un indirizzo IP numerico o indirizzo simbolico alfabetico il motore di ricerca esplora i LINKS ospitati arrivando così magari anche ad indirizzi che non si possano permettere di essere rappresentati direttamente da domini alfabetici o indirizzi ip numerici.

Seconda proposta: RANKING CAOTICO DEI RISULTATI DI RICERCA.

I motori di ricerca dovrebbero fornire risultati delle ricerche conseguite sulla base del semplice caso neutralizzando così eventuali strategie di marketing che vedono risultati di ricerca viziati a favore dei "soliti raccomandati" ;-)

Soprattutto i meta-motori di ricerca che spesso sono gestiti da singoli o enti indipendenti potrebbero soppesare la possibilità di rimescolare casualmente la graduatoria dei risultati di una ricerca effettuata sui vari motori al fine di non privilegiare nessun* e non penalizzare nessun altr* nella presentazione dei risultati della ricerca effettuata.

Entrambe queste proposte si fondano su un'idea artistica, - accostando la pratica della ricerca a quella dell'arte ponendo il ricercatore nel ruolo di artista indagatore meta-diffusore dell'informazione, colui che si preoccupa in maniera laterale e creativa non tanto di limitarsi a produrre qualcosa in Rete, ma di offrire prospettive trasversali per fruire delle esperienze che già esistono -, per cui una possibile efficace democrazia è quella che si basa su una sorta di PREMIO CASUALE ammettendo che ogni entità ha le stesse probabilità di successo (amici più eruditi di noi ci hanno detto che gli antichi greci in passato applicavano in alcuni casi questa sorta di democrazia casuale).

APPENDICI

appendice a:

-URLOGRAFIA (rob da url)



http://altavista.com classico e potente motore di ricerca

http://www.northernlight.com il motore di ricerca che indicizza la maggior fetta della rete

http://www.yahoo.com famoso motore di ricerca di tipo "redazionale"

http://www.deja.com motore di ricerca specializzato per i newsgroup

http://www.arianna.it motore di ricerca italiano

http://www.freefind.com servizio gratuito per inserire un motore di ricerca nel proprio sito

http://www.motoridiricerca.it/index.htm portale italiano sui motori di ricerca

http://www.toptrenta.com guida ai motori di ricerca

http://www.webhelp.com il motore di ricerca in diretta con operatore

http://www.siteowner.com servizio in linea per iscrizioni ai motori di ricerca

http://www.rcnet.pisa.it/ricercapersone.htm directory per ricerche di nominativi

http://www.dogpile.com Dogpile: meta motore di ricerca

http://www.cs.indiana.edu:800/finger/gateway finger, un'interrogazione all'antica per utenze internet

http://www.copernic.com software per interrogazioni multiple e ottimizzate

http://gwsearch.netpedia.net metamotore in ambiente gnome-linux

http://www.kamus.it/useit.htm metamotore all'italiana

http://www.ecn.org/altravista directory antagonista

appendice b:

Criteri e operatori logici di ricerca (esempi di ricerche)



corvo AND rosso

+corvo +rosso

cerca "corvo" e "rosso"

corvo AND NOT rosso

+corvo -rosso

cerca "corvo" ma non "corvo rosso"

corvo NEAR rosso

corvo ADJ rosso

cerca "corvo" e "rosso" e che siano vicini nella stessa pagina

"Corvo Rosso"

cerca proprio la stringa "Corvo Rosso"

domain:it

pagine che fanno riferimento al dominio it

link:http://www.ecn.org

verifica quanti links secondo il database di altavista puntano a www.ecn.org

host:ecn.org

pagine che fanno riferimento all'host ecn.org

image:che

pagine che contengono presumibilmente immagini del Che

appendice c:

Registrarsi nei motori


Tutti motori danno la possibilità di indicizzare una pagina mediante la compilazione di un form. Per facilitare al motore di ricerca l'indicizzazione della pagina inserire appositi tag META

Esempi:

<HEAD>

<TITLE> Titolo della pagina </TITLE>

<META NAME="description" CONTENT="frase di descrizione meta ">

<META NAME="keywords" CONTENT="parole , per , descrivere">

</HEAD>

La pagina in questione sarà indicizzata con le keywords "parole per descrivere" (separate da virgole) Alcuni motori esaminano anche il 'Titolo della paginà che è quindi consigliabile che sia attinente con il contenuto. Molto importante anche il testo compreso fra i tag di tipo h (p.e.

<h1>titolo della pagina</h1>)

Rifiutare l'indicizzazione

Questo può essere possibile mediante la creazione di un file: robots.txt. È un file di testo collocato nella directory di primo livello di un sito per impedire che gli agenti software accedano a certi documenti o sub-directories del sito. Ciò vale solamente con i robot conformi alle disposizioni del Robots Exclusion Standard. I robot leggeranno il file e si atterranno alle istruzioni in modo tale che certe aree del sito o l'intero sito possano non essere visitate dai ragni.

Alcuni esempi di comandi:

User-agent: *

Disallow: /

(evita che l'intero server venga controllato)

User-agent: *

Disallow: /indirizzi

Disallow: /privacy

Disallow: /lavori

(evita che le directory descritte vengano controllate)

User-agent: Slurp/2.0

Disallow: /

(esclude un tipo di robot)

Ulteriori informazioni presso: Altavista robots.txt page.

appendice d:

Glossario


Clustering

Ad una query alcuni motori di ricerca evitano che la risposta non compaia più volte con lo stesso sito. Questo per permettere che si ottenga un ranking omogeneo e chiaro.

De-listing

La cancellazione delle pagine dall'elenco di un motore di ricerca che può avvenire per diverse motivazioni tipo l'inaffidabilità della macchina server del sito o per evitare lo spamdexing.

Keyword Domain Name

Trucco per migliorare il posizionamento nei risultati di ricerca che consiste nell'inserimento delle parole chiave come porzione dell'URL.

Meta search

Trattasi di una ricerca simultanea su più motori, una meta-ricerca in cui i risultati doppi non compaiono.

Multiple Domain Names

Tecnica che prevede l'uso di diversi domini in cui inserire le pagine gateway che puntano al sito da promuovere.

Multiple Titles

Tecnica a vantaggio del ranking sconsigliata che consiste nella ripetizione del tag TITLE nell'intestazione della pagina. Molti motori la scoprono.

Query

Per interrogare il motore di ricerca. Si usa una parola, frase, gruppo di parole o combinata con altra sintassi.

Referer

Consiste nell'ottenere l'indirizzo da cui proviene l'utente, tramite il refer log file del server. Se il visitatore viene direttamente dalla pagina dei risultati di un motore di ricerca, la referer URL indica anche la query utilizzata per cercare la pagina.

Siphoning

Alla lettera "travaso". Tutti i trucchi che vanno dalla copiatura completa di certi documenti web alle singole parti, frasi e parole chiave di altri siti, per convogliare il traffico verso il proprio.

Spamdexing

Realizzare un apposito documento per aggirare l'algoritmo di un motore di ricerca.

Stop Word

Quando viene effettuata una ricerca, per evitare che vengano trovati termini troppo comuni tipo: web, computer, the, ec. Con questa tecnica si ottiene che il motore ignori del tutto la parola indicata.

Virtual Server

È un server virtuale che attraverso un proprio dominio e indirizzo IP dei diversi proprietari viene condiviso in maniera autonoma dagli stessi. Rispetto ad un normale server questo offre un maggiore risparmio dei costi in quanto la linea permanente ad Internet viene usata da tutti i componenti. Chiaramente a scapito di una più veloce trasmissione dei dati.







Projects





Cerca dentro NOEMA - Search in NOEMA




Iscriviti! - Join!

 

RSS

 

Top