Division durch null ist in der Mathematik nicht definiert, weil es keine Zahl gibt, die mit null multipliziert eine andere Zahl als null ergibt. Was auf den ersten Blick wie eine willkürliche Regel wirkt, schützt die gesamte Mathematik vor Widersprüchen. Denn ließe man die Division durch null zu, könnte man scheinbar beweisen, dass 1 gleich 2 ist. Die Konsequenzen reichen weit über das Klassenzimmer hinaus: Fehlerhafte Nulldivisionen haben schon Computersysteme lahmgelegt und ein Kriegsschiff manövrierunfähig gemacht.

Die einfache Erklärung: Teilen ist umgekehrtes Malnehmen

Division ist die Umkehrung der Multiplikation. Wenn du 12 durch 4 teilst, fragst du: Welche Zahl ergibt mit 4 multipliziert 12? Die Antwort ist 3, denn 3 mal 4 gleich 12. Die Probe funktioniert immer.

Bei der Division durch null bricht dieses Prinzip zusammen. Die Frage "12 geteilt durch 0" bedeutet: Welche Zahl ergibt mit 0 multipliziert 12? Aber egal welche Zahl du einsetzt, 0 mal 5 ist 0, 0 mal eine Million ist 0, 0 mal minus 17 ist 0. Es gibt schlicht keine Zahl, die multipliziert mit null etwas anderes als null ergibt. Die Gleichung hat keine Lösung.

Bei 0 geteilt durch 0 wird es noch problematischer. Hier lautet die Frage: Welche Zahl ergibt mit 0 multipliziert 0? Die Antwort wäre jede beliebige Zahl, denn 7 mal 0 ist 0, 42 mal 0 ist 0, minus 3 mal 0 ist 0. Das Ergebnis wäre also nicht eindeutig. Mathematik braucht aber Eindeutigkeit: Jede Rechnung muss genau ein Ergebnis liefern.

Auch die anschauliche Vorstellung versagt. Stell dir vor, du sollst 12 Äpfel auf null Haufen verteilen. Die Aufgabe ergibt keinen Sinn, weil es keine Haufen gibt, auf die du verteilen könntest.

Warum die Mathematik keine Ausnahme zulassen kann

Die Division durch null ist nicht nur unpraktisch, sie wäre zerstörerisch. Ließe man sie zu, könnte man mit wenigen Rechenschritten beweisen, dass jede Zahl gleich jeder anderen ist. Der klassische Trugschluss geht so:

Setze a = b. Dann gilt: a mal a = a mal b. Subtrahiere b mal b auf beiden Seiten: a mal a minus b mal b = a mal b minus b mal b. Faktorisiere: (a + b) mal (a minus b) = b mal (a minus b). Jetzt kommt der verbotene Schritt: Teile beide Seiten durch (a minus b). Da a = b ist, ist a minus b gleich null. Du teilst also durch null. Das Ergebnis wäre a + b = b, und da a = b: 2b = b, also 2 = 1.

Der "Beweis" funktioniert nur, weil im entscheidenden Schritt durch null geteilt wird. Sobald man den Faktor (a minus b) kürzt, entsteht der Widerspruch. Genau deshalb ist die Regel keine Empfehlung, sondern ein zwingendes Verbot. Ohne dieses Verbot wäre jede mathematische Aussage gleichzeitig wahr und falsch.

In der Algebra führt eine versteckte Division durch null zu scheinbaren Beweisen wie 2 = 1
In der Algebra führt eine versteckte Division durch null zu scheinbaren Beweisen wie 2 = 1
Rechnung Frage dahinter Ergebnis
12 : 4 Welche Zahl mal 4 ergibt 12? 3 (eindeutig)
12 : 1 Welche Zahl mal 1 ergibt 12? 12 (eindeutig)
12 : 0 Welche Zahl mal 0 ergibt 12? Keine (unmöglich)
0 : 0 Welche Zahl mal 0 ergibt 0? Jede (nicht eindeutig)
12 : 0,001 Welche Zahl mal 0,001 ergibt 12? 12.000
12 : 0,0001 Welche Zahl mal 0,0001 ergibt 12? 120.000

Die letzten beiden Zeilen zeigen ein weiteres Muster: Je näher der Divisor an null rückt, desto größer wird das Ergebnis. Der Grenzwert von 1/x für x gegen null ist aber nicht unendlich im klassischen Sinn. Von der positiven Seite strebt 1/x gegen plus unendlich, von der negativen Seite gegen minus unendlich. Die beiden Seiten widersprechen sich, deshalb existiert der Grenzwert nicht.

Wie Computer mit der Division durch null umgehen

Für Menschen ist "nicht definiert" eine akzeptable Antwort. Computer brauchen aber für jede Operation ein konkretes Ergebnis. Der IEEE-754-Standard, nach dem praktisch alle modernen Prozessoren rechnen, löst das Problem mit Sonderwerten.

Teilt ein Programm eine Zahl ungleich null durch null, liefert der Prozessor den Wert "Infinity" (unendlich) mit dem entsprechenden Vorzeichen. Teilt es 0 durch 0, entsteht "NaN" (Not a Number). Beide Werte sind keine gewöhnlichen Zahlen, sondern Markierungen dafür, dass etwas schiefgelaufen ist. NaN hat eine besondere Eigenschaft: Es ist der einzige Wert, der nicht einmal sich selbst gleicht. NaN ist ungleich NaN.

Nicht jedes System fängt diese Sonderwerte sauber ab. Am 21. September 1997 gab ein Besatzungsmitglied des US-Lenkwaffenkreuzers USS Yorktown den Wert null in ein Datenfeld des Antriebskontrollsystems ein. Die Software versuchte, durch diesen Wert zu teilen. Das Programm stürzte ab und riss über das Netzwerk weitere Systeme mit. Der Kreuzer verlor seinen Antrieb und trieb rund zwei Stunden und 45 Minuten manövrierunfähig im Atlantik.

Situation IEEE-754-Ergebnis Bedeutung
5 / 0 +Infinity Positiv unendlich
−5 / 0 −Infinity Negativ unendlich
0 / 0 NaN Not a Number (undefiniert)
Infinity / Infinity NaN Undefiniert
0 mal Infinity NaN Undefiniert

In vielen Programmiersprachen wie Java, Python oder C++ löst eine ganzzahlige Division durch null eine Ausnahme (Exception) aus, die das Programm sofort stoppt, wenn sie nicht abgefangen wird. Bei Gleitkommazahlen greifen dagegen die IEEE-754-Regeln. Entwickler müssen deshalb Eingabewerte prüfen, bevor sie in einer Division landen.

Woher die Null überhaupt kommt

Die Null, die heute solche Probleme bereitet, ist eine vergleichsweise junge Erfindung. Die Babylonier nutzten ab dem 3. Jahrhundert v. Chr. ein Leerzeichen als Platzhalter in ihrem Stellenwertsystem, etwa um 205 von 25 zu unterscheiden. Eine eigenständige Zahl war dieses Zeichen aber nicht.

Der entscheidende Schritt kam in Indien. Im Jahr 628 n. Chr. formulierte der Mathematiker und Astronom Brahmagupta in seinem Werk "Brahmasphutasiddhanta" erstmals Rechenregeln für die Null. Er definierte null als das Ergebnis, wenn man eine Zahl von sich selbst subtrahiert, und legte Regeln für Addition, Subtraktion und Multiplikation mit null fest. Bei der Division durch null lag aber auch Brahmagupta daneben: Er behauptete, null geteilt durch null sei null, und eine Zahl geteilt durch null bleibe unverändert. Beide Aussagen sind nach heutigem Verständnis falsch.

Brahmagupta formulierte 628 n. Chr. als Erster Rechenregeln für die Null, irrte sich aber bei der Division durch null
Brahmagupta formulierte 628 n. Chr. als Erster Rechenregeln für die Null, irrte sich aber bei der Division durch null

Über arabische Gelehrte wie al-Chwarizmi gelangte das indische Dezimalsystem mit der Null im 9. Jahrhundert nach Bagdad und von dort im 12. Jahrhundert nach Europa. Der italienische Mathematiker Fibonacci machte das System mit seinem "Liber Abaci" (1202) im Abendland populär. Erst im 19. Jahrhundert formalisierten Mathematiker wie Karl Weierstraß die Grenzen der Division so präzis, dass die Undefinierbarkeit der Division durch null endgültig feststand.

Gibt es Ausnahmen von der Regel?

In der Standard-Arithmetik, dem System, das wir im Alltag, in der Schule und in den meisten Wissenschaften verwenden, gibt es keine Ausnahme. Division durch null ist und bleibt undefiniert.

In der höheren Mathematik existieren allerdings Strukturen, die mit einer Art "Unendlich" arbeiten. Die bekannteste ist die Riemannsche Zahlenkugel. Statt sich die Zahlen als Gerade vorzustellen, projiziert man sie auf eine Kugel. Der Nordpol der Kugel repräsentiert einen einzigen Punkt "Unendlich". In diesem System gilt 1/0 = unendlich und 1/unendlich = 0. Aber auch hier ist 0/0 weiterhin undefiniert, und die üblichen Rechenregeln gelten nicht uneingeschränkt. Die Riemannsche Zahlenkugel ist ein Spezialwerkzeug der Funktionentheorie, kein Ersatz für die Schulmathematik.

Die babylonischen Wurzeln unseres Zahlensystems reichen über 5.000 Jahre zurück. Die Null kam erst Jahrtausende später dazu und brachte ein Problem mit, das bis heute nicht lösbar ist: die Division durch sich selbst.

Fazit

Division durch null ist nicht verboten, weil Mathematiker sich nicht genug angestrengt hätten. Sie ist undefiniert, weil jede mögliche Definition zu Widersprüchen führt. Entweder gibt es kein Ergebnis (bei n/0 mit n ungleich null) oder unendlich viele (bei 0/0). Beides zerstört die Eindeutigkeit, auf der alle Mathematik aufbaut. Computer umgehen das Problem mit Sonderwerten wie NaN und Infinity, aber wenn Software die Prüfung vergisst, können die Folgen real und teuer werden. Die Null ist die mächtigste und zugleich gefährlichste Zahl der Mathematik.

Weiterführende Links

Division durch null (Wikipedia)de.wikipedia.org →
Warum kann man nicht durch null dividieren? (Scienceblogs)scienceblogs.de →
Trugschlüsse in der Mathematik (Wikipedia)de.wikipedia.org →