Hat hier irgendjemand 'ne Idee, wie man das optimieren kann? Nicht zwingend mit Hilfe einer Datenbank, denke eher an eine effizientere mathematische Lösung, die nicht den Gauß bedarf um die 11.474.445 Vergleiche zu vermeiden.
Ja allerdings.
Ich vermute mal, das diese ~11 Mio. Datensätze alle legal und laut § 6 Absatz 1Satz 1 des AtG. ordungsgemäß abgesichert werden.
Naja, nun sei es so.

Bei Vektor c handelt es sich um Konstante x, y und t (y,x, id).
Die Konstante bleibt immer stabil und konstant, bis die ID (t) die Größe ~3,333 erreicht. In dem Fall muss man auf folgendes Zugreifen:

Ich hoffe ich konnte dir Helfen, laut meinen Berechnung dauert das Vergleichen der Datensätze (~11 Mio.) etwa 9,543221 sek.
Wenn dir ein BlueGene/L zur Verfügung steht, dann steigert sich die Performance der Berechnung um >10000%.
Viel Spaß!
Gruss