L'idea è semplice, il funzionamento lo è abbastanza.
Mettiamo che uno cerchi un file, ad esempio un cortometraggio di una retrospettiva polacca. Una volta messo il file intero in rete (uno solo basta con quel nome ...) al file vengono allegate le informazioni per chi cercherà quel file. Quando qualcuno cerca quel file ed inizia a scaricarlo, mette a disposizione le parti scaricate (o le informazioni delle parti da lui scaricate). Quindi al moltiplicarsi del numero di utenti le parti a disposizione crescono e la velocità di download cresce. I bit arrivano a fiume da ogni parte ... Come diceva Dorje, intanto si scarica e poi si penserà a fare il merge.
Una volta, ad esempio, WinMX procedeva attaccandosi ad una fonte completa e downloadava finchè tale fonte era raggiungibile. Dopo di che doveva confrontare gli ash per vedere quale fosse la fonte idonea per completare il donwload, etc. Si faceva dei calcoli per scegliere la fonte contigua, etc. Il che si è notato ritardare un pò le cose in alcuni casi.
Mi sembra di ricordare che l'ideatore del bittorrent avesse una predilezione per l'andare a "culo", sostenendo che a volte andare a fortuna spesso è più veloce che calcolare.
Ora nel dettaglio non conosco se ci sono modificazioni al concetto originale, perchè non sono più aggiornato come prima ...