Tag Archives: p2p

Non siamo ancora pronti per la musica

E’ uscito il nuovo CD live degli U2, mi informo in rete e penso: lo compro, lo scarico, lo compro, lo scarico…
Facciamo che lo scarico e se poi mi piace lo compro… E’ il modo migliore per non acquistare musica; ma non per tirchieria ma perchè un CD scaricato “a gratis” non potrà mai avere dentro di me alcun valore.

Un CD costa e poichè ha un prezzo che io pago, diventa per me un momento di attenzione, di scelta e di valutazione sia in fase di acquisto che di conservazione; sono 20 euro e quindi ci penso prima di buttarli via.
Magari vedo in giro cosa ne pensano gli altri, aspetto di aver sentito un paio di pezzi alla radio o un pre-listen sul sito ma poi finalmente arriva l’acquisto consapevole.
E poichè l’ho pagato, anche se al primo ascolto non mi convince, non me ne sbarazzo con leggerezza ma lo riascolto più volte, mi leggo i testi, osservo la cover, approfondisco sul web. Vivo insomma il CD in una esperienza completa.

Ma un mp3 che ho scaricato “a gratis” non ha valore. Non può avere valore, è 1 tra i 1.000 che ho scaricato ed è così che lo vivo: 1 tra 1.000.
Che orrore! La musica, una delle componenti più importanti della nostra vita, ridotta ad una sorta di merce da outlet dove tutto si mescola con tutto, niente emerge e niente merita un approfondimento o una seconda chance.

Mhh… forse non siamo ancora pronti per essere così liberi di scegliere.

Share and Enjoy

  • Facebook
  • Twitter
  • LinkedIn
  • Email
  • RSS

Radiohead: che la Rete sia con voi

Chissà quanti di voi sanno che un paio di anni fa i Radiohead, una delle più importanti band pop degli ultimi 20 anni, decisero di distribuire il loro nuovo album non tramite i canali ufficiali della discografica (CD nei circuiti commerciali) ma direttamente e solo dal loro sito, chiedendo ai fan di pagare l’album “a piacere”.
Niente prezzo fisso ma un contributo proporzionale alla soddisfazione che gli ascoltatori avrebbero avuto dai brani.
L’esperimento fece molto scalpore e se ne parlò parecchio, sia in rete che sulla carta stamapata ed anche in TV.
A 2 anni di distanza anche le cifre sembrano quadrare, sopratutto se si considera quanto è stato risparmiato in termini di stampe, spedizioni, promozione e provvigioni.

Fonte: dalla rete

Veniamo ad oggi e mi colpisce un trafiletto che leggo su un giornale: la EMI, la vecchia casa di produzione dei Radiohead, lancia un cofanetto in versione extralusso che contiene le ristampe dei loro primi 3 album.

Una mossa strana perchè riguarda un gruppo che, abbandonate le case discografiche, si è lanciato in rete creando anche blog, forum ed ambienti di discussione diretta con i propri fans.

Ed infatti andando a “spippolare a destra e a manca”, ovviamente con il puro scopo della ricerca, non solo trovo che i 3 cofanetti il giorno stesso del lancio sono già “disponobili” sui circuiti “peer to peer“, ma che addirittura alcune versioni originali e live delle stesse canzoni si trovano rimasterizzate, prodotte e perfino riarrangiate da alcuni fans.
In altissima qualità , con tanto di foto e video inedite di concerti ed interviste e con i Radiohead che buoni buoni, zitti zitti, stanno a guardare la loro musica che inonda la rete.

www.federicopicardi.it

Share and Enjoy

  • Facebook
  • Twitter
  • LinkedIn
  • Email
  • RSS

Anche il peer si evolve, da 2 a 4

La condivisione di file in rete (file sharing) cresce e muta come ogni altra cosa sulla rete ed infatti è stata presentata l’evoluzione del peer 2 peer che con un gioco di parole è divenuta “peer 4 peer“.

Partiamo dal peer 2 peer, vediamone un punto debole e capiamo come la sua evoluzione può migliorare le cose.

Il concetto di fondo del p2p basa le proprie fondamenta su una architettura in cui un server centrale, mette in collegamento 2 o più peer (leggi: PC degli utenti) i quali in totale autonomia e senza alcuna intelligenza si scambiano file.
Questo vuole dire che se io lancio “emule“, uno dei più noti programmi di file sharing, per cercare un mp3, il mio PC si collega prima ad un server che mi indica chi, tra tutti gli altri PC collegati in quel momento, ha disponibile l’mp3 che sto cercando e poi direttamente ad alcuni dei PC degli altri utenti che hanno deciso di rendere l’mp3 disponibile.

Procedura molto semplice ma altrettanto stupida in quanto non tiene conto di nessu fattore che possa ottimizzare il download. In particolare non considera nè la capacità trasmissiva di chi fornisce il file (la banda in upload) e nemmeno la topologia della rete.
Per fare un esempio è come se in maniera totalmente casuale io andassi a scaricare un pezzetto di file da un server in America, un altro pezzetto da Hong Kong, uno da Londra ed uno da Roma.
Ovviamente in rete non si ragiona in termini geografici bensì di “hop”, il numero di salti che dividono 2 nodi, e di capacità, ma l’esempio rende comunque l’idea ed il risultato alla fine è che mentre potevamo avere il file da un nostro “vicino di rete”, magari ce lo andiamo a prendere dall’altra parte del mondo impegnando e occupando banda e router che poteva essere lasciati liberi per altri utilizzi.
Se questa considerazione la estendiamo su scala planetaria e con i numeri degli utenti che utilizzano il file sharing ci rendiamo conto che il fenomeno non è poi così trascurabile, sopratutto per i carrier ed i provider che devono gestire le reti.

La soluzione che è stata proposta, chiamata “peer 4 peer”,  tiene proprio conto di questi aspetti.
I server centrali, oltre che funzionare come indici, calcolano e considerano sia la qualità della connessione di ogni singolo utente che la distanza topografica che separa 2 utenti.
I primo esperimenti sul campo permettono di rilevare una ottimizzazione in termini di carico in rete del 40-50%.

C’è poi un altro fattore che è stato considerato e risolto ma per il quale il vincolo non è tecnologico bensì di tutela dei diritti.
Una volta che il server centrale, per capirsi quello che funge da indice, ha fiutato che ad esempio questo mese la maggior parte delle ricerche degli mp3 sono tutte relative al nuovo albun degli U2, invece di continuare a mettere in contatto tutti gli interessati, generando traffico casuale in rete, potrebbe magari farsene una copia in locale e ridistribuirla lui stesso abbattendo tutti i problemi dovuti alla qualità di connessione dei singoli utenti.
Questa soluzione è ovviamemnte una storpiatura del concetto di peer 2 peer perchè di fatto centralizza un po’ tutto, però come al solito, una soluzione ibrida e calibrata potrebbe portare a buoni risultati.
Sempre in via sperimentale si è visto che la velocità di download con una architettura mista arriva a migliorare anche del 30-40%.

Resta il problema dei diritti, ma con serverino alle Cayman… ops, forse è meglio se mi fermo qui!

Share and Enjoy

  • Facebook
  • Twitter
  • LinkedIn
  • Email
  • RSS