Dopo un'ambiziosa campagna di ascolto di segnali radio provenienti da sistemi stellari di tipo terrestre, il programma SETI@home sta in questo periodo tirando le somme, per la verità con risultati abbastanza scarsi. Di tutti i miliardi di segnali verificati da quattro milioni di utenti privati sparsi in 226 paesi del mondo negli ultimi quattro anni, solo 166 sono stati giudicati potenzialmente significativi. A questi, il team di ricercatori dell'Università di Berkeley che gestisce il progetto ha aggiunto altri 61 segnali per un totale di 227 sorgenti che, a partire dallo scorso 18 marzo, sono state nuovamente "ascoltate" dal radiotelescopio di Arecibo per un'analisi più circoscritta e dettagliata. "C'è sempre stata l'idea di ripetere alcune osservazioni una volta completata la prima analisi," ha detto il Professor Louis Friedman, direttore della Planetary Society, fondatrice e primo sponsor del programma SETI@home. "Il punto è: 'Questi segnali sono davvero buoni?' Ci sono molte cose che ancora non sappiamo ed è questo che la prossima fase del programma ci dirà". Ebbene secondo le prime indiscrezioni trapelate dai ricercatori dell'Università di Berkeley, anche questi risultati sarebbero negativi. Delle 227 sorgenti, nessuna insomma avrebbe caratteristiche di artificialità. Ad ogni buon conto, anche questi nuovi dati saranno scomposti in pacchetti e analizzati dagli utenti sparsi per il mondo attraverso il programma SETI@home, per quella che sarà forse l'ultima campagna di analisi del programma. Nato quattro anni fa come appendice del programma SETI (Search for Extra-Terrestrial Intelligence), SETI@home si avvale di un piccolo programma che può essere scaricato tramite Internet da chiunque voglia partecipare al progetto. Ciascun partecipante al programma può quindi effettuare le analisi di piccoli pacchetti di dati radio dell'ordine di circa 350 Kb e rispedire sempre via Internet i risultati all'Università di Berkeley. In pratica i milioni di PC privati sparsi in tutto il mondo agiscono in parallelo come un unico supercomputer, abbassando così drasticamente i tempi di analisi di una mole di dati che altrimenti avrebbe bisogno di molte decine d'anni per essere esaminata.