Miller-Rabin-Test – Wikipedia

Der Miller-Rabin-Test oder Miller-Selfridge-Rabin-Test (kurz MRT) ist ein probabilistischer Primzahltest und damit ein Algorithmus aus dem mathematischen Teilgebiet Zahlentheorie, insbesondere der algorithmischen Zahlentheorie.

Der MRT erhält als Eingabe eine ungerade natürliche Zahl , von der man wissen will, ob sie prim ist, und eine weitere Zahl und gibt entweder „zusammengesetzt“ oder „wahrscheinlich prim“ aus. Ist prim, so lautet die Ausgabe immer „wahrscheinlich prim“. Anderenfalls wird in den meisten Fällen „zusammengesetzt“ ausgegeben, aber für manche Paare mit zusammengesetztem ist die Ausgabe trotzdem „wahrscheinlich prim“.

Oft wird zufällig gewählt, der MRT zählt in dieser Form zur Klasse der Monte-Carlo-Algorithmen. Durch wiederholtes Testen mit verschiedenen kann die Wahrscheinlichkeit eines Irrtums beliebig klein gehalten werden. Es gibt deterministische Varianten des MRT, bei denen durch geeignete Wahl der ein Irrtum ausgeschlossen wird.

Der MRT ist nach Gary L. Miller und Michael O. Rabin benannt.[1] John L. Selfridge hat diesen Test schon 1974 verwendet, bevor Rabin ihn 1976 veröffentlichte. Daher rührt der alternative Name Miller-Selfridge-Rabin-Test.[2]

Der MRT funktioniert ähnlich wie der Solovay-Strassen-Test, ist diesem allerdings in allen Aspekten überlegen. Er ist schneller, seine Irrtumswahrscheinlichkeit ist geringer, und alle Paare ,, für die der Solovay-Strassen-Test die richtige Ausgabe liefert, werden auch vom MRT richtig erkannt.

Es sei eine ungerade Zahl, von der festgestellt werden soll, ob sie eine Primzahl ist. Zuerst berechnet man und (ungerade) so, dass

.

Dann wählt man eine Zahl aus der Menge . Der nächste Schritt ist ein Test, den nur Primzahlen und starke Pseudoprimzahlen (zur Basis ) bestehen: Man prüft, ob entweder

oder

für ein mit

gilt. Für eine Primzahl ist dies stets der Fall. Wenn die Bedingung nicht erfüllt ist, muss also zusammengesetzt sein. Die Bedingung wird jedoch auch von einigen Zahlenpaaren , mit zusammengesetztem erfüllt, so dass der Test die Zusammengesetztheit von mit diesem nicht zeigt. Dann heißt eine starke Pseudoprimzahl zur Basis .

Man betrachtet die Folge

,

In der jedes Element das Quadrat seines Vorgängers ist. Die Elemente werden modulo berechnet.

Ist eine Primzahl, dann gilt nach dem kleinen fermatschen Satz

und obige Folge hat deshalb 1 als letztes Element.

Für Primzahlen ist der Vorgänger einer 1 in der Folge immer kongruent zu 1 oder zu -1:

Die Folge besteht dann also entweder nur aus Einsen, oder sie enthält (was sich bei modulo-n-Rechnung für einen Wert kongruent zu −1 ergibt), worauf wegen Einsen folgen. Wenn die Folge nicht diese Form hat, muss zusammengesetzt sein.

Man prüft, ob die Folge mit 1 beginnt oder ob spätestens als vorletztes Element auftritt. Ist dies der Fall, ist entweder prim oder eine starke Pseudoprimzahl zur Basis , und es wird „möglicherweise prim“ ausgegeben. Ansonsten kann nicht prim sein, und der Algorithmus gibt „zusammengesetzt“ aus. Man kann die Berechnung abbrechen, wenn oder ohne vorhergehendes auftritt, denn danach kann nur noch bzw. kommen.

Zuverlässigkeit

[Bearbeiten | Quelltext bearbeiten]

Ist ungerade und nicht prim, so enthält die Menge höchstens Elemente mit , die keine Zeugen für die Zusammengesetztheit von sind. Ist , dann wird immer für ein sein, und wird als zusammengesetzt erkannt.

Ist ein zusammengesetztes ungerades gegeben und wählt man zufällig ein aus , dann ist somit die Wahrscheinlichkeit, dass das Ergebnis „wahrscheinlich prim“ lautet, kleiner als . Wiederholt man den Test mehrfach für verschiedene voneinander unabhängig gewählte aus dieser Menge, sinkt die Wahrscheinlichkeit weiter ab. Nach Schritten ist die Wahrscheinlichkeit, eine zusammengesetzte Zahl für prim zu halten, kleiner als , also z. B. nach vier Schritten kleiner als 0,4 % und nach zehn Schritten kleiner als .

Das ist eine pessimistische Schätzung, die von den „problematischsten“ Werten für ausgeht. Für die meisten zusammengesetzten ist der Anteil der Basen, die ein falsches Ergebnis liefern, erheblich kleiner als , und für viele ist er sogar 0.

Deterministische Varianten

[Bearbeiten | Quelltext bearbeiten]

Der Miller-Rabin-Algorithmus kann deterministisch angewendet werden, indem alle Basen in einer bestimmten Menge getestet werden (Beispiel: wenn n < 9.080.191, dann ist es ausreichend a = 31 und 73 zu testen, siehe unten).

Wenn das getestete zusammengesetzt ist, sind diejenigen zu teilerfremden Zahlen , die keine Zeugen für die Zusammengesetztheit von n sind, in einer echten Untergruppe von enthalten. Dies bedeutet, dass beim Testen aller aus einer Menge, die erzeugt, eines der ein Zeuge für das Zusammengesetztsein von ist. Wenn angenommen wird, dass die Riemannsche Vermutung wahr ist, dann folgt daraus, dass die Gruppe durch ihre Elemente kleiner O((log n)2) generiert wird, was bereits im Algorithmus von Miller angeführt wurde.[3] Die Konstante in der Landau-Notation wurde von Eric Bach auf 2 reduziert.[4] Deshalb erhält man einen deterministischen Primzahltest, wenn alle getestet werden. Die Laufzeit dieses Algorithmus ist O((log n)4).

Wenn die Zahl klein ist, ist es nicht notwendig, alle bis zu testen, da bekannt ist, dass eine viel kleinere Anzahl ausreichend ist.

Beispielsweise wurde folgendes verifiziert:

n kleiner als zu testende a Quelle
2.047 2 [5]:1023
1.373.653 2, 3
9.080.191 31, 73 [6]:926
4.759.123.141 2, 7, 61
2.152.302.898.747 2, 3, 5, 7, 11 [6]:916
3.474.749.660.383 2, 3, 5, 7, 11, 13
341.550.071.728.321 2, 3, 5, 7, 11, 13, 17
3.825.123.056.546.413.051 2, 3, 5, 7, 11, 13, 17, 19, 23 [7]
318.665.857.834.031.151.167.461 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37 [8]
3.317.044.064.679.887.385.961.981 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41

Dabei dürfen nur solche getestet werden, die größer sind als das jeweils größte angegebene .

Für das letzte Beispiel ist die Schranke . Daran ist zu erkennen, wie viel eingespart wird, indem nur die Primzahlen bis 41 verwendet werden.

Siehe auch die Prime Pages,[9] Miller-Rabin SPRP bases records,[10] Zhang/Tang[11] und ebenso die Folge A014233[12] in OEIS zu anderen Kriterien ähnlicher Art. Auf diese Weise hat man sehr schnelle deterministische Primzahltests für Zahlen im geeigneten Bereich, ohne auf unbewiesene Annahmen zurückgreifen zu müssen.

Implementierung

[Bearbeiten | Quelltext bearbeiten]

Diese C++-Implementierung kann alle Zahlen kleiner behandeln:

#include <cstdint>  using u32 = std::uint32_t; using u64 = std::uint64_t;  bool wahrscheinlich_prim(const u32 n, const u32 a)  // n ungerade, 2 <= a <= n-2 {     u32 d = (n-1) / 2, j = 1;     while (d % 2 == 0)          d /= 2, ++j;      // berechne p = a^d mod n mit der binären Exponentiation:     u64 p = a, q = a;     while (d /= 2) {         q = q * q % n;         if (d % 2) p = p * q % n;     }      if (p == 1 || p == n-1)         return true;  // n ist wahrscheinlich prim      while (--j > 0 && p > 1) {         p = p * p % n;         if (p == n-1) return true;     }     return false;  // n ist nicht prim } 

Praktische Relevanz

[Bearbeiten | Quelltext bearbeiten]

Primzahltests werden vor allem in der Kryptographie benötigt. Ein typisches Beispiel ist die Schlüsselerstellung für das RSA-Kryptosystem, hierfür werden mehrere große Primzahlen benötigt. Zwar wurde im Jahr 2002 mit dem AKS-Primzahltest erstmals ein beweisbar deterministischer, in polynomialer Zeit laufender Primzahltest vorgestellt. Dessen Laufzeit ist jedoch für praktische Anwendungen meist zu hoch, weswegen für Kryptographie-Software meist immer noch der Miller-Rabin-Test eingesetzt wird. Dabei ist es zwar theoretisch möglich, dass eine zusammengesetzte Zahl als Primzahl genutzt wird, die Wahrscheinlichkeit ist jedoch so gering, dass es in der Praxis keine Rolle spielt.

  • Johannes Buchmann: Einführung in die Kryptographie. 2. Auflage. Springer, 2001, S. 108–111
  • Karpfinger, Kiechle: Kryptologie, Algebraische Methoden und Algorithmen. Vieweg+Teubner, 2010, S. 147–152, mit vollständigen Beweisen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. M. O. Rabin: Probabilistic algorithms. In: J. F. Traub (ed.): Algorithms and complexity. Academic Press 1976, S. 21–39, speziell S. 35/36, zum Teil nach Ideen von Miller
  2. Song Y. Yan: Number theory for computing. 2. Auflage. Springer, 2002, S. 208–214
  3. Gary L. Miller: Riemann’s Hypothesis and Tests for Primality. In: Journal of Computer and System Sciences 13 (1976), no. 3, pp. 300–317.
  4. Eric Bach: Explicit bounds for primality testing and related problems, Mathematics of Computation 55 (1990), no. 191, pp. 355–380.
  5. Carl Pomerance, John L. Selfridge, Samuel Wagstaff: The pseudoprimes to 25·10. In: Mathematics of Computation. Band 35, 1980, S. 1003–1026, doi:10.1090/S0025-5718-1980-0572872-7 (englisch).
  6. a b Gerhard Jaeschke: On strong pseudoprimes to several bases. In: Mathematics of Computation. Band 61, 1993, S. 915–926, doi:10.2307/2153262 (englisch).
  7. Yupeng Jiang and Yingpu Deng: Strong pseudoprimes to the first eight prime bases. In: Mathematics of Computation. Band 83, 2014, S. 2915–2924, doi:10.1090/S0025-5718-2014-02830-5 (englisch).
  8. Jonathan Sorenson, Jonathan Webster: Strong pseudoprimes to twelve prime bases. In: Mathematics of Computation. Band 86, 2017, S. 985–1003, doi:10.1090/mcom/3134, arxiv:1509.00864 [math] (englisch).
  9. Prime Pages der University of Tennessee at Martin
  10. Miller-Rabin SPRP bases records
  11. Zhenxiang Zhang, Min Tang: Finding strong pseudoprimes to several bases. II. In: Math. Comp. 72 (2003), S. 2085–2097
  12. Die Folge A014233 in OEIS