Ich bin ja froh, dass sich überhaupt mal jemand des Themas der Falsch-Positivrate annimmt: "Centogene führt Bauers Angaben zufolge bei einem positiven Test noch eine Validierung mit einem Testkit eines anderen Herstellers durch. "In weit über 90 Prozent der Fälle ist dieser zweite Test ebenfalls positiv", sagt er. Würde diese Quote für alle Tests in Deutschland gelten, wären mindestens 90 Prozent aller positiv Getesteten mit sehr hoher Sicherheit infiziert. Und die Quote läge sogar noch höher, weil Validierungstests nach Centogene-Angaben meist dann negativ sind, wenn die Viruskonzentration in der Probe so niedrig ist, dass sie an der Nachweisgrenze liegt und je nach verwendetem Testkit zu unterschiedlichen Ergebnissen führt - auch zu falsch negativen."
Welchen Nutzen haben Validierungstests? Stellen wir uns eine Menge von Proben vor und dazu drei Ereignisse, die für eine einzelne Probe eintreten können:
A: der erste Test ist positiv
B: der zweite Test (d.h. der Validierungstest) ist positiv
C: der Getestete ist infiziert
Dann ist P(A|nicht C) ein Schätzer für die Falsch-Positivrate des ersten Tests und P(B|A) die Wahrscheinlichkeit dafür, dass der zweite Test ebenfalls positiv ist. Um ein wenig klarer zu sehen, betrachten wir einige Grenzfälle für die drei Ereignisse; zunächst für C:
Falls alle Proben von Infizierten stammen, also P(C) = 1, dann ist P(nicht A) ein Schätzer für die Falsch-Negativrate des ersten Tests, P(nicht B) ein Schätzer für die Falsch-Negativrate des zweiten, und Informationen über Falsch-Positivraten kann man überhaupt nicht ableiten.
Falls alle Proben sauber sind, also P(C) = 0, dann ist P(A) ein Schätzer für die Falsch-Positivrate des ersten Tests, P(B) ein Schätzer für die Falsch-Positivrate des zweiten, und P(B|A) sagt ein bisschen was darüber aus, ob die Tests ähnliche Fehler machen.
Nun Ereignis A:
Falls der erste Test perfekt ist, also A = C, dann kann aus P(B|A) die Falsch-Negativrate des zweiten Tests abgeleitet werden: P(nicht B|C) = 1 - P(B|C) = 1 - P(B|A).
Falls der erste Test ein Münzwurf ist (also mit Falsch-Positivrate gleich 50%), so ist P(B|A) = P(B). Ein Wert von P(B|A) über 90% kann alles Mögliche bedeuten, aber über den ersten Test gibt es nichts zu lernen.
Und schließlich Ereignis B:
Falls der zweite Test perfekt ist, also B = C, dann könnte man aus P(B|A) = P(C|A) die Falsch-Positivrate des ersten Tests ableiten - weil man die Prävalenz P(C) = P(B) kennt. Aber wenn man einen perfekten (zweiten) Test hat, wozu dann den ersten?
Falls der zweite Test ein Münzwurf ist, kann er natürlich wenig beitragen. Man sollte P(B|A) bei etwa 50% messen, und deutliche Abweichungen von 50% wären verdächtig.
Und falls der zweite Test gleich dem ersten ist, so wäre P(B|A) = 1 zu erwarten. Falls doch etwas anderes herauskommt, gibt es sicherlich ein Problem mit der Zuverlässigkeit des Tests (welches auch immer).
Mir scheint, dass der Nutzen solcher Validierungstests gering ist. Im schlimmsten Fall, liebe Patientenschützer, suggerieren sie Zuverlässigkeit, wo keine ist.