|
Benfordsches Gesetz |
Das Benfordsche Gesetz, auch Newcomb-Benford's Law (NBL), zählt zu den universellen Verteilungsgesetzen der Stochastik. Es beschreibt eine fundamentale Gesetzmäßigkeit der Verteilung der Ziffernstrukturen der Zahlen in Datensätzen, zum Beispiel ihrer ersten Ziffern, seien es Datensätze über Einwohnerzahlen von Städten oder über Geldbeträge in der Buchhaltung, von Naturkonstanten oder Datensätze wissenschaftlicher Beobachtungen.
1881 wurde diese Gesetzmäßigkeit von dem Mathematiker Simon Newcomb entdeckt und im „American Journal of Mathematics“ publiziert. Er soll bemerkt haben, dass in den benutzten Büchern mit Logarithmentafeln, die Seiten mit Tabellen mit Eins als erster Ziffer deutlich schmutziger waren als die anderen Seiten, weil sie offenbar öfter benutzt worden seien. Die Abhandlung Newcombs blieb unbeachtet und war schon in Vergessenheit geraten, als der Physiker Frank Benford (1883–1948) diese Gesetzmäßigkeit wiederentdeckte und darüber 1938 neu publizierte.
|
|
Begriffsschrift |
Die Begriffsschrift ist ein schmales, weniger als hundert Seiten umfassendes Buch des Jenaer Mathematikers und Philosophen Gottlob Frege zur Logik. Es wurde 1879 mit dem Untertitel „Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“ veröffentlicht und gilt allgemein als die wichtigste Veröffentlichung im Bereich der Logik seit Aristoteles' Organon.
Frege gelang in diesem Buch zum ersten Mal eine Formalisierung der klassischen Prädikatenlogik, und damit die erste Formalisierung einer Logik, in der sich ein hinreichend großer Teil der Mathematik, aber auch der natürlichen Sprache ausdrücken ließ. Gemeinsam mit George Booles Mathematical Analysis of Logic von 1847 markiert die Begriffsschrift deshalb den Beginn der modernen formalen Logik. Die Bezeichnung Begriffsschrift wird auch für den von Frege definierten logischen Kalkül sowie für Freges logische Notation verwendet. Frege entwarf die Begriffsschrift zur Unterstützung seiner Forschung an den Grundlagen der Mathematik.
|
|
Braess-Paradoxon |
Das Braess-Paradoxon (nach dem Mathematiker Dietrich Braess) ist eine Veranschaulichung der Tatsache, dass eine zusätzliche Handlungsalternative unter der Annahme rationaler Einzelentscheidungen zu einer Verschlechterung der Situation für alle führen kann.
Braess originale Arbeit zeigt eine paradoxe Situation, in der der Bau einer zusätzlichen Straße (also einer Kapazitätserhöhung) dazu führt, dass sich bei gleich bleibendem Verkehrsaufkommen die Fahrtdauer für alle Autofahrer erhöht, d. h. die Kapazität des Netzwerkes reduziert wird.
|
|
Chaosforschung |
Die Chaosforschung ist ein Teilgebiet der Mathematik und Physik und befasst sich im Wesentlichen mit Systemen, deren Dynamik unter bestimmten Bedingungen empfindlich von den Anfangsbedingungen abhängt, so dass ihr Verhalten nicht langfristig vorhersagbar ist. Da diese Dynamik einerseits den physikalischen Gesetzen unterliegt, andererseits aber irregulär erscheint, bezeichnet man sie als deterministisches Chaos. Chaotische Systeme sind nichtlineare dynamische Systeme. Beispiele sind der Schmetterlingseffekt beim Wetter, Turbulenzen, Wirtschaftskreisläufe, bestimmte Musterbildungsprozesse, wie beispielsweise Erosion, sowie neuronale Netze und damit letztlich auch menschliches Verhalten.
|
|
Direkte Numerische Simulation |
Unter Direkter Numerischer Simulation, kurz DNS, versteht man die rechnerische Lösung der vollständigen instationären Navier-Stokes-Gleichungen. Sie unterscheidet sich von anderen Berechnungsmethoden der Strömungsmechanik dadurch, dass kleinskalige turbulente Schwankungen aufgelöst und nicht durch Turbulenzmodelle dargestellt werden.
Aufgrund der zeitlich variierenden, räumlich kleinen Schwankungen in einer turbulenten Strömung ist neben der hohen räumlichen Auflösung eine instationäre Betrachtungsweise für die detaillierte Beschreibung der physikalischen Vorgänge erforderlich. Die DNS ist damit die genaueste Methode, Strömungen zu berechnen; sie stellt allerdings auch die höchsten Anforderungen an das numerische Verfahren sowie an die zur Verfügung stehende Rechenleistung. Deshalb findet die DNS hauptsächlich in der Grundlagenforschung Verwendung.
|
|
René Descartes |
René Descartes, latinisiert Renatus Cartesius, (* 31. März 1596 in La Haye/Touraine, Frankreich; † 11. Februar 1650 in Stockholm, Schweden) war ein französischer Philosoph, Mathematiker und Naturwissenschaftler.
Descartes gilt als der Begründer des modernen frühneuzeitlichen Rationalismus, den Spinoza, Malebranche und Leibniz kritisch-konstruktiv weitergeführt haben. Sein rationalistisches Denken wird auch Cartesianismus genannt. Er ist außerdem für das berühmte Dictum „cogito ergo sum“ („ich denke, also bin ich“) bekannt, das die Grundlage seiner Metaphysik bildet aber auch das Selbstbewusstsein als genuin philosophisches Thema eingeführt hat.
|
|
Fundamentalsatz der Analysis |
Der Fundamentalsatz der Analysis, auch bekannt als Hauptsatz der Differential- und Integralrechnung, bringt die beiden grundlegenden Konzepte der Analysis, nämlich das der Integration und das der Differentiation, miteinander in Verbindung. Genauer sagt er aus, dass Ableiten und Integrieren jeweils die Umkehrung des anderen sind. Der Satz besteht aus zwei Teilen, die manchmal als erster und zweiter Hauptsatz der Analysis bezeichnet werden. Die konkrete Formulierung des Satzes und sein Beweis variieren je nach Aufbau der betrachteten Integrationstheorie. Hier wird zunächst das Riemann-Integral betrachtet.
|
|
Carl Friedrich Gauß |
Johann Carl Friedrich Gauß (latinisiert Carolus Fridericus Gauss; * 30. April 1777 in Braunschweig; † 23. Februar 1855 in Göttingen) war ein deutscher Mathematiker, Astronom, Geodät und Physiker mit einem breit gefächerten Feld an Interessen. Er wird auch Fürst der Mathematik genannt, da ihn viele für den besten Mathematiker aller Zeiten halten. Im Alter von sieben Jahren kam Gauß in die Volksschule. Dort stellte sein Lehrer Büttner seinen Schülern die Aufgabe, die Zahlen von 1 bis 100 zu summieren, um diese zu beschäftigen. Gauß hatte sie allerdings nach kürzester Zeit gelöst, indem er 50 Paare der Summe 101 bildete (1 + 100, 2 + 99, ..., 50 + 51) und 5050 als Ergebnis erhielt. Die daraus resultierende Formel wird gelegentlich auch als „der kleine Gauß“ bezeichnet.
|
|
Gaußsches Eliminationsverfahren |
Das Gauß'sche Eliminationsverfahren oder einfach Gauß-Verfahren (nach Carl Friedrich Gauß) ist ein Algorithmus aus den mathematischen Teilgebieten der linearen Algebra und der Numerik. Es ist ein wichtiges Verfahren zum Lösen von linearen Gleichungssystemen und beruht darauf, dass elementare Umformungen zwar das Gleichungssystem ändern, aber die Lösung erhalten. Dies erlaubt es, jedes Gleichungssystem auf Stufenform zu bringen, an der die Lösung durch sukzessive Elimination der Unbekannten leicht ermittelt oder die Lösungsmenge abgelesen werden kann. Die Anzahl der benötigten Operationen ist von der Größenordnung n3 bei einer -Matrix. In seiner Grundform ist der Algorithmus anfällig für Rundungsfehler, aber mit kleinen Modifikationen (Pivotisierung) stellt er für allgemeine lineare Gleichungssysteme das Standardlösungsverfahren dar.
|
|
Gefangenendilemma |
Das Gefangenendilemma ist ein Paradoxon, das zentraler Bestandteil der Spieltheorie ist. Bei dem Dilemma handelt es sich um ein klassisches „Zwei-Personen-Nicht-Nullsummen-Spiel”, das in den 1950er Jahren von zwei Mitarbeitern der RAND Corporation formuliert wurde. Merrill Flood und Melvin Dresher beschrieben ein soziales Dilemma als Zwei-Personen-Spiel, das zeigt, wie individuell rationale Entscheidungen zu kollektiv schlechteren Ergebnissen führen können. Die Bezeichnung „Gefangenendilemma“ stammt von Albert Tucker von der Universität Princeton.
|
|
Geometrisierung von 3-Mannigfaltigkeiten |
Die Idee der Geometrisierung wurde 1980 von William Thurston als ein Programm zur Klassifizierung geschlossener 3-dimensionaler Mannigfaltigkeiten vorgestellt. Das Ziel der Geometrisierung ist, nach der Zerlegung einer 3-Mannigfaltigkeit in Grundbausteine auf jedem dieser Bausteine eine charakteristische geometrische Struktur zu finden. Die von Thurston aufgestellte Vermutung, dass dies immer möglich ist, stellt eine Verallgemeinerung der Poincaré-Vermutung dar und wurde von Grisha Perelman mit seinen Arbeiten zum Ricci-Fluss bewiesen.
|
|
Geschichte der Mathematik |
Die Geschichte der Mathematik reicht zurück bis ins Altertum. Die wichtigsten erhaltenen Quellen, die uns Auskunft über die mathematischen Fähigkeiten der Ägypter geben, sind der Papyrus Rhind, der Papyrus Moskau und die so genannte Lederrolle. Die Ägypter verwendeten die Mathematik hauptsächlich für praktische Aufgaben wie die Lohnberechnung, die Berechnung von Getreidemengen zum Brotbacken oder Flächenberechnungen. Sie kannten die vier Grundrechenarten durch Rückführung auf Addition, Stammbrüche und das Lösen von Gleichungen mit einer Variablen.
|
|
Geschichte der Wahrscheinlichkeitsrechnung |
|
Die Geschichte der Wahrscheinlichkeitsrechnung oder Stochastik beschreibt die Entwicklung eines gleichzeitig alten und modernen Teilgebiets der Mathematik, das sich mit der mathematischen Analyse von Experimenten mit unsicherem Ausgang befasst. Während viele heute noch gebräuchliche Formeln zu einfachen Zufallsprozessen möglicherweise bereits im Altertum, spätestens jedoch im ausgehenden Mittelalter bekannt waren, hat sich das heute verwendete axiomatische Fundament der Wahrscheinlichkeitstheorie erst zu Beginn des 20. Jahrhunderts herausgebildet.
|
|
Kurt Gödel |
Kurt Gödel (* 28. April 1906 in Brünn, Österreich-Ungarn, heute Brno, Tschechien; † 14. Januar 1978 in Princeton, New Jersey) war Mathematiker und Logiker. Gödel wird von vielen als der bedeutendste Logiker des 20. Jahrhunderts angesehen. Er hat maßgebliche Beiträge im Bereich der Prädikatenlogik (Entscheidungsproblem) sowie zum klassischen und intuitionistischen Aussagenkalkül geleistet.
|
|
Felix Hausdorff |
Felix Hausdorff (* 8. November 1868 in Breslau; † 26. Januar 1942 in Bonn) war ein deutscher Mathematiker. Er gilt als Mitbegründer der modernen Topologie und lieferte wesentliche Beiträge zur allgemeinen und deskriptiven Mengenlehre, zur Maßtheorie, Funktionalanalysis und Algebra. Neben seinem Beruf wirkte er unter dem Pseudonym Paul Mongré auch als philosophischer Schriftsteller und Literat.
|
|
David Hilbert |
David Hilbert (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen) war einer der bedeutendsten Mathematiker der Neuzeit. Viele seiner Arbeiten in Mathematik und mathematischer Physik begründeten eigenständige Forschungsgebiete. Seine Vorschläge zu den Grundlagen der Mathematik („Hilbertprogramm“) führten zu einer kritischen Analyse der Begriffsdefinitionen der Mathematik und des mathematischen Beweises. Hilberts programmatische Rede auf dem internationalen Mathematikerkongress in Paris im Jahre 1900, in der er eine Liste von 23 mathematischen Problemen vorstellte, beeinflusste die mathematische Forschung des 20. Jahrhunderts nachhaltig.
|
|
Vollständige Induktion |
Vollständige Induktion oder der „Schluss von n auf n + 1“ ist eine mathematische Beweismethode, die üblicherweise eine Aussage für alle natürlichen Zahlen beweist (verallgemeinert). Sie funktioniert aber auch für allgemeinere Fälle (siehe unten). Der Name dieses Beweisverfahrens leitet sich ab von lat. inductio (= Herein- oder Hinaufführung, im Kontrast zu deductio Herabführung). Obwohl auch bei der vollständigen Induktion vom Speziellen auf das Allgemeine geschlossen wird, ist sie jedoch kein induktives, sondern ein deduktives Prinzip.
|
|
Infinite monkey theorem |
Das Infinite monkey theorem (v. engl. infinite, „unendlich“; monkey, „Affe“; theorem, „Theorem“, „Lehrsatz“) besagt, dass ein einzelner Affe, der unendlich lange zufällig auf einer Tastatur herumtippt, mit an Sicherheit grenzender Wahrscheinlichkeit irgendwann alle Bücher in der französischen Bibliothèque nationale de France (Nationalbibliothek Frankreichs) schreiben wird. In englischsprachigen Ländern geht man davon aus, dass so irgendwann die Werke William Shakespeares entstehen werden.
|
|
Sofja Kowalewskaja |
Sofja Kowalewskaja (russisch Софья Васильевна Ковалевская, wiss. Transliteration Sofja Vasiljevna Kovalevskaja; * 3. Januar / 15. Januar 1850 in Moskau; † 29. Januar / 10. Februar 1891 in Stockholm) war eine russische Mathematikerin. Zu Sofja Kowalewskaja gibt es viele verschiedene Namensversionen: In englischen Arbeiten heißt sie meistens Sofia Kovalevskaia oder Kovalevskaya; weil in den westeuropäischen Ländern unbekannt war, dass es in Russland auch eine weibliche Form des Nachnamens gibt, wird sie in Westeuropa bis heute häufig unter dem Namen ihres Mannes Kowalewski (auch Kowalewsky oder Kovalewsky) geführt; ihr Vorname wurde in Deutschland zumeist zu Sonja, in Frankreich zu Sophie.
|
|
Mandelbrot-Menge |
Die Mandelbrot-Menge, im allgemeinen Sprachgebrauch oft auch Apfelmännchen genannt, ist ein Fraktal, das in der Chaostheorie eine bedeutende Rolle spielt. Es wurde 1980 von Benoît Mandelbrot erstmals computergrafisch dargestellt und untersucht. Die mathematischen Grundlagen dafür wurden bereits 1905 von dem französischen Mathematiker Pierre Fatou erarbeitet. Außerhalb der Fachwelt wurde die Mandelbrot-Menge vor allem durch den hohen ästhetischen Reiz dieser Computergrafiken bekannt, der durch geschickte Farbgestaltung des Außenbereichs, der nicht zur Menge gehört, noch erhöht wird. Die Mandelbrot-Menge wird oft als das formenreichste geometrische Gebilde bezeichnet, das überhaupt bekannt ist.
|
|
Mathematik |
Die Mathematik (griechisches Adjektiv μαθηματική [τέχνη], mathēmatikē [téchnē], „[die Kunst des] Lernen[s], zum Lernen gehörig“; vom altgriechischen Verb μανθάνω, manthánō, „ich lerne“) ist die Wissenschaft, welche aus der Untersuchung von Figuren und dem Rechnen mit Zahlen entstand. Für Mathematik gibt es keine allgemein anerkannte Definition; heute wird sie üblicherweise als eine Wissenschaft, die selbst geschaffene abstrakte Strukturen auf ihre Eigenschaften und Muster untersucht, beschrieben.
|
|
Newton-Verfahren |
Das Newtonsche Näherungsverfahren, auch Newton-Raphsonsche Methode, (benannt nach Sir Isaac Newton 1669 und Joseph Raphson 1690) ist in der Mathematik das Standardverfahren zur numerischen Lösung von nichtlinearen Gleichungen und Gleichungssystemen. Im Falle einer Gleichung mit einer Variablen lassen sich zu einer gegebenen stetig differenzierbaren Funktion f: R → R Näherungswerte zu Lösungen der Gleichung f(x)=0, d. h. Näherungen der Nullstellen dieser Funktion finden. Die grundlegende Idee dieses Verfahrens ist, die Funktion in einem Ausgangspunkt zu linearisieren, d. h. ihre Tangente zu bestimmen, und die Nullstelle der Tangente als verbesserte Näherung der Nullstelle der Funktion zu verwenden.
|
|
Charles Sanders Peirce |
Charles Sanders Peirce (* 10. September 1839 in Cambridge, Massachusetts, † 19. April 1914 in Milford, Pennsylvania) war ein US-amerikanischer Mathematiker, Philosoph und Logiker.
Peirce gehört neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Bertrand Russell bezeichnete ihn als den „größten amerikanischen Denker“, Karl Popper betrachtete ihn sogar als „einen der größten Philosophen aller Zeiten“.
|
|
Produktregel |
Die Produktregel oder Leibnizregel (nach G. W. Leibniz) ist eine grundlegende Regel der Differentialrechnung. Sie führt die Berechnung der Ableitung eines Produktes von Funktionen auf die Berechnung der Ableitung der einzelnen Funktionen zurück. Sind die Funktionen u(x) und v(x) von einem Intervall D in die reellen oder komplexen Zahlen an der Stelle xa aus D differenzierbar, so ist auch die Funktion f(x) = u(x) · v(x) an der Stelle x=xa differenzierbar, und es gilt: (uv)' = u'v + uv'. Eine Anwendung der Produktregel in der Integralrechnung ist die Methode der partiellen Integration.
|
|
Pythagoras von Samos |
Pythagoras von Samos (griechisch Πυθαγόρας) (* um 570 v. Chr., † nach 510 v. Chr. in Metapont in der Basilicata) war ein antiker griechischer Philosoph und Gründer einer einflussreichen religiös-philosophischen Bewegung. Als Vierzigjähriger verließ er seine griechische Heimat und wanderte nach Unteritalien aus. Dort gründete er eine Schule und betätigte sich auch politisch. Trotz intensiver Bemühungen der Forschung gehört er noch heute zu den rätselhaftesten Persönlichkeiten der Antike. Manche Historiker zählen ihn zu den Pionieren der beginnenden griechischen Philosophie, Mathematik und Naturwissenschaft, andere meinen, er sei vorwiegend oder ausschließlich ein Verkünder religiöser Lehren gewesen. Möglicherweise konnte er diese Bereiche verbinden. Die nach ihm benannten Pythagoreer blieben auch nach seinem Tod kulturgeschichtlich bedeutsam.
|
|
Sierpinski-Dreieck |
Ein Sierpinski-Dreieck (nach Wacław Sierpiński) ist ein Fraktal, das durch fortgesetzte rekursive Aufteilung eines Vorgängerdreiecks n-1 in vier weitere (zueinander kongruente) Dreiecke erhalten wird, die dem Ausgangsdreieck ähnlich im mathematischen Sinne sind. Geht n gegen unendlich, spricht man von einer Sierpinski-Fläche. Die fraktale Dimension der Sierpinski-Fläche beträgt D = log 3/log 2 = 1,585...
|
|
Stellenwertsystem |
Ein Stellenwertsystem (auch Positionssystem genannt) ist ein Zahlensystem, das im Vergleich zu Additionssystemen mit wenigen Symbolen (meist Ziffern oder Zahlzeichen genannt) große Zahlen darstellt. In diesem Zusammenhang wird auch oft von der b-adischen Darstellung von Zahlen (nicht zu verwechseln mit p-adischen Zahlen) gesprochen, wobei die Variable b für die Anzahl der Symbole steht. Der Wert von b wird in diesem Zusammenhang auch oft als Basis oder Grundzahl bezeichnet. Beispiele für Stellenwertsysteme sind das im Alltag gewöhnlich gebrauchte Dezimalsystem (dekadisches System mit der Grundzahl 10), das Dualsystem (dyadisches System mit der Grundzahl 2) und das Hexadezimalsystem (hexadekadisches System mit der Grundzahl 16). Ein Beispiel für ein Zahlensystem, das kein Stellenwertsystem ist, ist das der römischen Ziffern. Es handelt sich dabei um ein Additionssystem.
|
|
Theorie der endlichen Kugelpackungen |
Die Theorie der endlichen Kugelpackungen ist ein Gebiet der Mathematik, welches sich mit der Frage beschäftigt, wie eine endliche Menge von Kugeln optimal, also möglichst platzsparend, verpackt werden kann. Endliche Kugelpackungen sind erst in den letzten Jahrzehnten mathematisch genauer untersucht worden. Fejes Tóth hat dazu wichtige Grundsteine gelegt. Eine weitaus längere Tradition haben dagegen unendliche Kugelpackungen. Das Problem der dichtesten Anordnung kann man auch für eine unendliche Anzahl von Kugeln betrachten. Hier geht es darum, diejenige Anordnung von Kugeln zu finden, bei der am wenigsten Zwischenraum bleibt. Die berühmteste Vermutung hierzu ist die Keplersche Vermutung. Kugelpackungen haben ihre Anwendung in der Kristallografie.
|
|
Yoshida Mitsuyoshi |
Yoshida Mitsuyoshi (japanisch 吉田 光由; * 1598; † 1672) war ein japanischer Mathematiker der Edo-Zeit. Er verfasste das weit verbreitete Rechenbuch Jinkōki (塵劫記; erschienen zwischen 1627 und 1641). Es wurde bis zu den europäisch orientierten Schulreformen zu Beginn der Meiji-Zeit unter anderem in den Terakoya-Schulen eingesetzt. Das Jinkōki gehört zum breitenwirksamsten Bereich der traditionellen japanischen Mathematik (和算, Wasan), der im Gegensatz zur mehr wissenschaftlich orientierten Expertenmathematik etwa der Seiki-Schule und den kultisch bedeutsamen Sangaku-Tafeln für den Hausgebrauch gedacht war. Zum praktischen Nutzen des Werks trugen auch die zahlreichen darin enthaltenen, wohl vom Autor entworfenen Zeichnungen bei.
|
|
Kandidaten für lesenswerte Artikel |
Weitere lesenswerte Artikel in der Wikipedia |