La velocità dui un computer si determina dai suoi flop (floating poit operations per second). Nella top 10 più attuale ( http://www.top500.org/lists/2010/06 ) il primo esegue 10.4 Gflops al secondo, ma il secondo ne esegue di più (10.64) e il quarto ne esegue quanto il primo

Qualcuno può spiegarmi il motivo?