AnthroWiki ist auf einen neuen Server umgezogen!
Unsere alten Seiten bleiben vorerst hier online, werden aber nicht mehr gepflegt! Das neue AnthroWiki finden Sie wie gewohnt unter anthrowiki.at.



gemeinsam neue Wege der Erkenntnis gehen
Eine freie Initiative von Menschen bei anthro.wiki, anthro.world und biodyn.wiki
mit online Lesekreisen, Übungsgruppen, Vorträgen ...
PayPal btn small.gif Wie Sie die Entwicklung von AnthroWiki durch Ihre Spende unterstützen können, erfahren Sie hier.

Wahrscheinlichkeit: Unterschied zwischen den Versionen

Aus AnthroWiki
Wechseln zu: Navigation, Suche
 
(63 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Die '''Wahrscheinlichkeit''' oder '''Probabilität''' ({{EnS|''probability''}}) gibt den Grad der [[Gewissheit]] an, mit der ein bestimmtes [[Ereignis]] eintritt. Ihre [[Mathematik|mathematische]] Behandlung ist Gegenstand der '''Wahrscheinlichkeitstheorie'''.
+
Die '''Wahrscheinlichkeit''' oder '''Probabilität''' ([[lat.]] ''probabilitas'' „Glaubhaftigkeit, Wahrscheinlichkeit“<ref>[https://de.langenscheidt.com/latein-deutsch/probabilitas Langenscheidt: ''probabilitas'']</ref>, von ''probare'' „prüfen, untersuchen, erproben, beurteilen, anerkennen“<ref>[https://de.langenscheidt.com/latein-deutsch/probare Langenscheidt: ''probare'']</ref>; {{EnS|''probability''}}) gibt den Grad der [[Gewissheit]] der [[Vorhersage]] an, dass ein bestimmtes [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignis]] eintreten wird. Ihre [[Mathematik|mathematische]] Behandlung ist Gegenstand der [[Wahrscheinlichkeitsrechnung]] bzw. [[Wahrscheinlichkeitstheorie]], für die verschiedene '''Wahrscheinlichkeitsbegriffe''' formuliert wurden.
  
Nach der klassischen Definition von [[Wikipedia:Pierre-Simon Laplace|Pierre-Simon de Laplace]] (1749-1827) errechnet sich bei [[Zufall]]sereignissen (z.B. beim Würfelspiel) die Wahrscheinlichkeit aus dem Verhältnis der ''günstigen'' Ergebnisse zur Gesamtzahl der ''möglichen'' Ergebnisse. So können etwa mit einem idealen [[Wikipedia:Spielwürfel|Spielwürfel]] mit gleicher Wahrscheinlichkeit die sechs Zahlen 1, 2, 3, 4, 5, oder 6 geworfen werden. Die Wahrscheinlichkeit, eine 6 zu werfen, beträgt also genau 1/6; die Wahrscheinlichkeit, eine ''gerade'' Zahl zu werfen, ist hingegen 1/2, da genau die Hälfte aller möglichen Zahlen ''gerade'' Zahlen sind, nämlich 2, 4 und 6.
+
== Klassischer Wahrscheinlichkeitsbegriff von Laplace ==
  
[[Kategorie:Wahrscheinlichkeitstheorie]]
+
Nach der klassischen [[Definition]] von [[Pierre-Simon de Laplace]] (1749-1827) errechnet sich bei [[Zufall]]sereignissen (z.B. beim Würfelspiel) die Wahrscheinlichkeit aus dem Verhältnis der ''günstigen'' Ergebnisse zur Gesamtzahl der ''möglichen'' Ergebnisse. So können etwa mit einem idealen [[Spielwürfel]] mit gleicher Wahrscheinlichkeit die sechs Zahlen 1, 2, 3, 4, 5, oder 6 geworfen werden. Die Wahrscheinlichkeit, eine 6 zu werfen, ihr '''Wahrscheinlichkeitsmaß''' <math>w_6</math>, beträgt also genau 1/6. Die Wahrscheinlichkeit, eine ''gerade'' Zahl zu werfen, ist hingegen 1/2, da genau die Hälfte aller möglichen Zahlen ''gerade'' Zahlen sind, nämlich 2, 4 und 6. Die Gesamtwahrscheinlichkeit, eine ''gerade'' Zahl zu werfen, ergibt sich dabei aus der [[Summe]] der Einzelwahrscheinlichkeiten ein 2, 4 oder 6 zu werfen, die jeweils 1/6 beträgt, d.h.:
 +
 
 +
:<math>w_{gerade} = w_2 + w_4 + w_6 = \frac16 + \frac16 + \frac16 = \frac36 = \frac12</math>
 +
 
 +
Die Wahrscheinlichkeit, bei zwei hintereinander ausgeführten Würfen jedesmal eine 6 zu werfen, errechnet sich hingegen wegen der [[#Stochastische Unabhängigkeit|stochastischenh Unabhängigkeit]] der beiden Würfe aus dem [[Produkt]] der Einzelwahrscheinlichkeiten:
 +
 
 +
:<math>w_{gesamt} = w_6 \times w_6 = \frac16 \times \frac16 = \frac{1}{36}</math>
 +
 
 +
== Objektivistischer Wahrscheinlichkeitsbegriff ==
 +
 
 +
'''Objektivistische Wahrscheinlichkeitsbegriffe''' gehen davon aus, dass die Wahrscheinlichkeit, mit der bestimmte Ereignisse auftreten, durch [[objektiv]]e [[physik]]alische Gegebenheiten bzw. durch unvermeidbare [[Messabweichung]]en bestimmt wird.
 +
 
 +
=== Determinismus ===
 +
 
 +
{{Hauptartikel|Determinismus}}
 +
 
 +
Der [[Determinismus]] beruht auf der [[metaphysisch]]en Annahme, dass alle in der Welt vorkommenden Ereignisse durch die [[Naturgesetz]]e und die gegebenen Anfangsbedingungen zu 100% bestimmt sind und daher zwingend eintreten müssen - auch wenn sich das natürlich weder theoretisch noch praktisch jemals beweisen lässt. Ob man sich dabei auf die [[göttliche Vorsehung]] oder auf den streng [[kausal]]en Determinismus der [[Klassische Mechanik|klassischen Mechanik]] beruft, mach diesbezüglich keinen Unterschied.
 +
 
 +
=== Frequentistischer Wahrscheinlichkeitsbegriff ===
 +
 
 +
Der '''Frequentismus''' bzw. der damit verbundene '''frequentistische Wahrscheinlichkeitsbegriff''' orientiert sich an der [[Relative Häufigkeit|relativen Häufigkeit]] der verschiedenen möglichen Ergebnisse eines [[Zufallsexperiment]]s. Um diese zu bestimmen, muss das Experiment möglichst oft wiederholt werden. Nach dem [[Gesetz der großen Zahlen]] ergibt sich die Wahrscheinlichkeit eines Ereignisses aus dem [[Grenzwert]] seiner relativen Häufigkeit bei (theoretisch) unendlich vielen Wiederholungen.
 +
 
 +
=== Wahrscheinlichkeitsinterpretation der Quantenmechanik ===
 +
 
 +
{{Hauptartikel|Bornsche Wahrscheinlichkeitsinterpretation}}
 +
 
 +
Die [[Quantentheorie]] hat gezeigt, dass der strenge Determinismus zumindest auf der [[mikroskopisch]]en Ebene nicht haltbar ist, weshalb sich quantenphysikalische Phänomene nur mit einer bestimmten Wahrscheinlichkeit voraussagen lassen. Nach der von [[Max Born]] 1926 vorgeschlagenen [[Wahrscheinlichkeitsinterpretation der Quantenmechanik]] entspricht diese Wahrscheinlichkeit dem Betragsquadrat der durch die [[Schrödingergleichung]] beschriebenen [[Wellenfunktion]] <math>\psi</math>.
 +
 
 +
== Subjektivistischer Wahrscheinlichkeitsbegriff ==
 +
 
 +
Der '''subjektivistische Wahrscheinlichkeitsbegriff''' wird angewendet, wenn man es mit einmaligen [[Zufallsereignis]]sen zu tun hat, was in der täglichen Lebenspraxis zumeist der Fall ist. Da sich der Vorgang nicht [[unter sonst gleichen Bedingungen]] wiederholen lässt, ist der objektivistische Wahrscheinlichkeitsbegriff hier nicht anwendbar. Die Wahrscheinlichkeit eines einzelnen Zufallsereignisses lässt sich nicht berechnen, sondern nur durch entsprechende [[Intuition]] und die [[Erfahrung]]en, die man mit [[Ähnlichkeit|ähnlichen]] Ereignissen gemacht hat, abschätzen.
 +
 
 +
=== Bayesscher Wahrscheinlichkeitsbegriff ===
 +
 
 +
Der englischen Mathematiker [[Thomas Bayes]] (1701-1761) definierte die Wahrscheinlichkeit als ''Grad der persönlicher Überzeugung'' ({{EnS|degree of belief}}).
 +
 
 +
=== Weitere Vertreter ===
 +
 
 +
Auch [[Joachim Stiller]] nähert sich immer mehr einem rein subjektiven Wahrscheinlichkeitsbegriff an. Instiktiv würden die meisten Menschen das schon beim Würfeln erfahren. Das Interessante sei nun, dass subjektive Wahrscheinlichkeitsbewertungen tatsächlich Auswirkungen auf objektive Wahrscheinlichkeitsmuster oder -verteilungen hätten. Das sei inzwischen wissenschaftlich eindeutig bestätigt. Auch die Universität Princeton hätte dieses Phänomen bereits zum Forschungsgegenstand gemacht. Das könnte dazu fürhen, dass in der Zukunft einmal rein subjektive Wahrscheinlichkeiten die eigentlich objektiven Warhscheinlichkeiten werden, so Stiller.
 +
 
 +
== Axiomatischer Wahrscheinlichkeitsbegriff ==
 +
 
 +
In den 1930er Jahren etwickelte der [[Wikipedia:Sowjetunion|sowjetische]] [[Mathematik]]er [[Wikipedia:Andrei Nikolajewitsch Kolmogorow|Andrei Nikolajewitsch Kolmogorow]] (1903-1987) eine axiomatische Begründung der Wahrscheinlichkeitstheorie, nach der ein Wahrscheinlichkeitsmaß für [[Zufall|zufällige]] '''Ereignisse''' folgende drei [[Axiom]]e erfüllen muss:
 +
 
 +
# Für jedes '''Zufallsereignis''' <math>A\in\Sigma</math> ist die Wahrscheinlichkeit von <math>A</math> eine reelle Zahl zwischen 0 und 1: <math>0\leq P(A)\leq 1</math>.
 +
# Ein '''sicheres Ereignis''' <math>\Omega\in\Sigma</math> hat die Wahrscheinlichkeit 1: <math>P(\Omega)=1</math>.
 +
# Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler ''inkompatibler'' Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse <math>A_i</math> ''inkompatibel'', wenn sie paarweise [[disjunkt]] sind, also bei <math>A_i \cap A_j = \emptyset</math> für alle <math>i \neq j</math>. Daher gilt: <math>P\left(A_1\dot\cup A_2\dot\cup\cdots\right) = \sum P(A_i)</math>. Diese Eigenschaft wird auch '''abzählbare Additivität''' oder '''σ-Additivität''' genannt.
 +
 
 +
== Bedingte Wahrscheinlichkeit ==
 +
 
 +
Die '''bedingte Wahrscheinlichkeit''' oder '''konditionale Wahrscheinlichkeit''' ({{EnS|conditional probability}}) <math>P(A\mid B)</math> ist ein Maß für die Wahrscheinlichkeit, dass ein Ereignis <math>A</math> unter der Annahme eintritt, dass ein Ereignis <math>B</math> bereits eingetreten ist bzw. mit einer bestimmten Wahrscheinlichkeit <math>P(B) > 0</math> eintreten wird. Dann gilt:
 +
 
 +
:<math>P(A\mid B) = \frac{P(A\cap B)}{P(B)}</math>
 +
 
 +
<math>A\cap B</math> ist dabei die [[Schnittmenge]] von <math>A</math> und <math>B</math> und <math>P(A\cap B)</math> die Wahrscheinlichkeit dafür, dass <math>A</math> und <math>B</math> gemeinsam auftreten.
 +
 
 +
Umgekehrt gilt auch:
 +
 
 +
:<math>P(B\mid A) = \frac{P(A\cap B)}{P(A)}</math>
 +
 
 +
=== Multiplikationssatz ===
 +
 
 +
Der '''Multiplikationssatz''' für zwei Ereignisse ergibt sich unmittelbar aus der Umformung der Definitionsgleichung für die bedingte Wahrscheinlichkeit:
 +
 
 +
:<math>P(A\cap B) = P(A\mid B) \cdot P(B)</math>
 +
 
 +
=== Satz von Bayes ===
 +
 
 +
Der '''Satz von Bayes''' stellt den Zusammenhang von <math>P(A \mid B)</math> und <math>P(B \mid A)</math> her:
 +
 
 +
:<math>P(A\mid B) \; = \; \frac {P(B\mid A) \cdot P(A)} {P(B)}</math>
 +
 
 +
Mit dem Satz von Bayes lässt sich somit die Wahrscheinlichkeit <math>P(A)</math> unter der Bedingung, dass <math>B</math> eingetreten ist, durch die Wahrscheinlichkeit <math>P(B)</math> unter der Bedingung, dass <math>A</math> eingetreten ist, berechnen.
 +
 
 +
Der springende Punkt ist, dass damit ein Vorwissen in die Berechnung einfließt. Die Bayessche Statistik ist zwar rechenaufwändig, aber gut geeignet, um [[Vorhersage]]n aufgrund früherer [[Erfahrung]]en zu erstellen und [[Lernen|Lernvorgänge]] zu modellieren. Heute, wo durch die modernen [[Computer]]n eine hinreichende Rechernkapazität verfügbar ist, macht man sich das insbesondere im Bereich der [[Künstliche Intelligenz|künstlichen Intelligenz]] zunutze. Viele [[Neurowissenschaftler]] gehen heute davon aus, dass auch im [[Gehirn]] dieses Prinzip für [[kognitiv]]e Prozesse angewendet wird.
 +
 
 +
Der Beweis des Satzes von Bayes folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeit bzw. dem Multiplikationssatz:
 +
 
 +
:<math>P\left(A\mid B\right) \; = \; \frac{P(A \cap B)}{P(B)} \; = \; \frac{\frac{P(A\cap B)}{P(A)} \cdot P(A)}{P(B)} \; = \; \frac{P\left(B\mid A\right)\cdot P(A)}{P\left(B\right)}</math>
 +
 
 +
=== Totale Wahrscheinlichkeit ===
 +
 
 +
Die '''totale Wahrscheinlichkeit''' von <math>A</math> unter der Voraussetzung der [[paarweise disjunkt]]en, d.h. einander ausschließenden Ereignisse <math>B_1, B_2, \dotsc, B_n</math> mit <math>P(B_j) > 0</math> mit <math>P(B_j) > 0</math> für alle <math>j</math> ergibt sich zu:
 +
 
 +
:<math>P(A) = P(A\cap B_1) + P(A\cap B_2) + \dotsc + P(A\cap B_n)= \sum_{j=1}^{n} P\left(A\mid B_j\right)\cdot P\left(B_j\right)</math>
 +
 
 +
=== Stochastische Unabhängigkeit ===
 +
 
 +
Sind <math>A</math> und <math>B</math> '''stochastisch unabhängig''' gilt hingegen:
 +
 
 +
:<math>P(A\cap B) = P(A) \cdot P(B)</math>
 +
 
 +
== Siehe auch ==
 +
* {{WikipediaDE|Wahrscheinlichkeit}}
 +
* {{WikipediaDE|Wahrscheinlichkeitstheorie}}
 +
* {{WikipediaDE|Stochastik}}
 +
 
 +
== Weblinks ==
 +
* [https://www.youtube.com/watch?v=D55vwnd6Kuc Zufallsgenerator mit Gedanken beeinflussen] YouTube
 +
* [https://www.aquadea.de/global-consciousness-projekt-nelson/ Global Conscious Progekt - Nelson] YouTube
 +
* [https://www.youtube.com/watch?v=QqiocEGArPQ Gibt es ein globales Bewusstsein - Nelson] YouTube
 +
 
 +
== Einzelnachweise ==
 +
<references />
 +
 
 +
[[Kategorie:Wahrscheinlichkeitsrechnung]]

Aktuelle Version vom 26. November 2020, 11:10 Uhr

Die Wahrscheinlichkeit oder Probabilität (lat. probabilitas „Glaubhaftigkeit, Wahrscheinlichkeit“[1], von probare „prüfen, untersuchen, erproben, beurteilen, anerkennen“[2]; eng. probability) gibt den Grad der Gewissheit der Vorhersage an, dass ein bestimmtes Ereignis eintreten wird. Ihre mathematische Behandlung ist Gegenstand der Wahrscheinlichkeitsrechnung bzw. Wahrscheinlichkeitstheorie, für die verschiedene Wahrscheinlichkeitsbegriffe formuliert wurden.

Klassischer Wahrscheinlichkeitsbegriff von Laplace

Nach der klassischen Definition von Pierre-Simon de Laplace (1749-1827) errechnet sich bei Zufallsereignissen (z.B. beim Würfelspiel) die Wahrscheinlichkeit aus dem Verhältnis der günstigen Ergebnisse zur Gesamtzahl der möglichen Ergebnisse. So können etwa mit einem idealen Spielwürfel mit gleicher Wahrscheinlichkeit die sechs Zahlen 1, 2, 3, 4, 5, oder 6 geworfen werden. Die Wahrscheinlichkeit, eine 6 zu werfen, ihr Wahrscheinlichkeitsmaß LaTeX: w_6, beträgt also genau 1/6. Die Wahrscheinlichkeit, eine gerade Zahl zu werfen, ist hingegen 1/2, da genau die Hälfte aller möglichen Zahlen gerade Zahlen sind, nämlich 2, 4 und 6. Die Gesamtwahrscheinlichkeit, eine gerade Zahl zu werfen, ergibt sich dabei aus der Summe der Einzelwahrscheinlichkeiten ein 2, 4 oder 6 zu werfen, die jeweils 1/6 beträgt, d.h.:

LaTeX: w_{gerade} = w_2 + w_4 + w_6 = \frac16 + \frac16 + \frac16 = \frac36 = \frac12

Die Wahrscheinlichkeit, bei zwei hintereinander ausgeführten Würfen jedesmal eine 6 zu werfen, errechnet sich hingegen wegen der stochastischenh Unabhängigkeit der beiden Würfe aus dem Produkt der Einzelwahrscheinlichkeiten:

LaTeX: w_{gesamt} = w_6 \times w_6 = \frac16 \times \frac16 = \frac{1}{36}

Objektivistischer Wahrscheinlichkeitsbegriff

Objektivistische Wahrscheinlichkeitsbegriffe gehen davon aus, dass die Wahrscheinlichkeit, mit der bestimmte Ereignisse auftreten, durch objektive physikalische Gegebenheiten bzw. durch unvermeidbare Messabweichungen bestimmt wird.

Determinismus

Hauptartikel: Determinismus

Der Determinismus beruht auf der metaphysischen Annahme, dass alle in der Welt vorkommenden Ereignisse durch die Naturgesetze und die gegebenen Anfangsbedingungen zu 100% bestimmt sind und daher zwingend eintreten müssen - auch wenn sich das natürlich weder theoretisch noch praktisch jemals beweisen lässt. Ob man sich dabei auf die göttliche Vorsehung oder auf den streng kausalen Determinismus der klassischen Mechanik beruft, mach diesbezüglich keinen Unterschied.

Frequentistischer Wahrscheinlichkeitsbegriff

Der Frequentismus bzw. der damit verbundene frequentistische Wahrscheinlichkeitsbegriff orientiert sich an der relativen Häufigkeit der verschiedenen möglichen Ergebnisse eines Zufallsexperiments. Um diese zu bestimmen, muss das Experiment möglichst oft wiederholt werden. Nach dem Gesetz der großen Zahlen ergibt sich die Wahrscheinlichkeit eines Ereignisses aus dem Grenzwert seiner relativen Häufigkeit bei (theoretisch) unendlich vielen Wiederholungen.

Wahrscheinlichkeitsinterpretation der Quantenmechanik

Die Quantentheorie hat gezeigt, dass der strenge Determinismus zumindest auf der mikroskopischen Ebene nicht haltbar ist, weshalb sich quantenphysikalische Phänomene nur mit einer bestimmten Wahrscheinlichkeit voraussagen lassen. Nach der von Max Born 1926 vorgeschlagenen Wahrscheinlichkeitsinterpretation der Quantenmechanik entspricht diese Wahrscheinlichkeit dem Betragsquadrat der durch die Schrödingergleichung beschriebenen Wellenfunktion LaTeX: \psi.

Subjektivistischer Wahrscheinlichkeitsbegriff

Der subjektivistische Wahrscheinlichkeitsbegriff wird angewendet, wenn man es mit einmaligen Zufallsereignissen zu tun hat, was in der täglichen Lebenspraxis zumeist der Fall ist. Da sich der Vorgang nicht unter sonst gleichen Bedingungen wiederholen lässt, ist der objektivistische Wahrscheinlichkeitsbegriff hier nicht anwendbar. Die Wahrscheinlichkeit eines einzelnen Zufallsereignisses lässt sich nicht berechnen, sondern nur durch entsprechende Intuition und die Erfahrungen, die man mit ähnlichen Ereignissen gemacht hat, abschätzen.

Bayesscher Wahrscheinlichkeitsbegriff

Der englischen Mathematiker Thomas Bayes (1701-1761) definierte die Wahrscheinlichkeit als Grad der persönlicher Überzeugung (eng. degree of belief).

Weitere Vertreter

Auch Joachim Stiller nähert sich immer mehr einem rein subjektiven Wahrscheinlichkeitsbegriff an. Instiktiv würden die meisten Menschen das schon beim Würfeln erfahren. Das Interessante sei nun, dass subjektive Wahrscheinlichkeitsbewertungen tatsächlich Auswirkungen auf objektive Wahrscheinlichkeitsmuster oder -verteilungen hätten. Das sei inzwischen wissenschaftlich eindeutig bestätigt. Auch die Universität Princeton hätte dieses Phänomen bereits zum Forschungsgegenstand gemacht. Das könnte dazu fürhen, dass in der Zukunft einmal rein subjektive Wahrscheinlichkeiten die eigentlich objektiven Warhscheinlichkeiten werden, so Stiller.

Axiomatischer Wahrscheinlichkeitsbegriff

In den 1930er Jahren etwickelte der sowjetische Mathematiker Andrei Nikolajewitsch Kolmogorow (1903-1987) eine axiomatische Begründung der Wahrscheinlichkeitstheorie, nach der ein Wahrscheinlichkeitsmaß für zufällige Ereignisse folgende drei Axiome erfüllen muss:

  1. Für jedes Zufallsereignis LaTeX: A\in\Sigma ist die Wahrscheinlichkeit von LaTeX: A eine reelle Zahl zwischen 0 und 1: LaTeX: 0\leq P(A)\leq 1.
  2. Ein sicheres Ereignis LaTeX: \Omega\in\Sigma hat die Wahrscheinlichkeit 1: LaTeX: P(\Omega)=1.
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse LaTeX: A_i inkompatibel, wenn sie paarweise disjunkt sind, also bei LaTeX: A_i \cap A_j = \emptyset für alle LaTeX: i \neq j. Daher gilt: LaTeX: P\left(A_1\dot\cup A_2\dot\cup\cdots\right) = \sum P(A_i). Diese Eigenschaft wird auch abzählbare Additivität oder σ-Additivität genannt.

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit oder konditionale Wahrscheinlichkeit (eng. conditional probability) LaTeX: P(A\mid B) ist ein Maß für die Wahrscheinlichkeit, dass ein Ereignis LaTeX: A unter der Annahme eintritt, dass ein Ereignis LaTeX: B bereits eingetreten ist bzw. mit einer bestimmten Wahrscheinlichkeit LaTeX: P(B) > 0 eintreten wird. Dann gilt:

LaTeX: P(A\mid B) = \frac{P(A\cap B)}{P(B)}

LaTeX: A\cap B ist dabei die Schnittmenge von LaTeX: A und LaTeX: B und LaTeX: P(A\cap B) die Wahrscheinlichkeit dafür, dass LaTeX: A und LaTeX: B gemeinsam auftreten.

Umgekehrt gilt auch:

LaTeX: P(B\mid A) = \frac{P(A\cap B)}{P(A)}

Multiplikationssatz

Der Multiplikationssatz für zwei Ereignisse ergibt sich unmittelbar aus der Umformung der Definitionsgleichung für die bedingte Wahrscheinlichkeit:

LaTeX: P(A\cap B) = P(A\mid B) \cdot P(B)

Satz von Bayes

Der Satz von Bayes stellt den Zusammenhang von LaTeX: P(A \mid B) und LaTeX: P(B \mid A) her:

LaTeX: P(A\mid B) \; = \; \frac {P(B\mid A) \cdot P(A)} {P(B)}

Mit dem Satz von Bayes lässt sich somit die Wahrscheinlichkeit LaTeX: P(A) unter der Bedingung, dass LaTeX: B eingetreten ist, durch die Wahrscheinlichkeit LaTeX: P(B) unter der Bedingung, dass LaTeX: A eingetreten ist, berechnen.

Der springende Punkt ist, dass damit ein Vorwissen in die Berechnung einfließt. Die Bayessche Statistik ist zwar rechenaufwändig, aber gut geeignet, um Vorhersagen aufgrund früherer Erfahrungen zu erstellen und Lernvorgänge zu modellieren. Heute, wo durch die modernen Computern eine hinreichende Rechernkapazität verfügbar ist, macht man sich das insbesondere im Bereich der künstlichen Intelligenz zunutze. Viele Neurowissenschaftler gehen heute davon aus, dass auch im Gehirn dieses Prinzip für kognitive Prozesse angewendet wird.

Der Beweis des Satzes von Bayes folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeit bzw. dem Multiplikationssatz:

LaTeX: P\left(A\mid B\right) \; = \; \frac{P(A \cap B)}{P(B)} \; = \; \frac{\frac{P(A\cap B)}{P(A)} \cdot P(A)}{P(B)} \; = \; \frac{P\left(B\mid A\right)\cdot P(A)}{P\left(B\right)}

Totale Wahrscheinlichkeit

Die totale Wahrscheinlichkeit von LaTeX: A unter der Voraussetzung der paarweise disjunkten, d.h. einander ausschließenden Ereignisse LaTeX: B_1, B_2, \dotsc, B_n mit LaTeX: P(B_j) > 0 mit LaTeX: P(B_j) > 0 für alle LaTeX: j ergibt sich zu:

LaTeX: P(A) = P(A\cap B_1) + P(A\cap B_2) + \dotsc + P(A\cap B_n)= \sum_{j=1}^{n} P\left(A\mid B_j\right)\cdot P\left(B_j\right)

Stochastische Unabhängigkeit

Sind LaTeX: A und LaTeX: B stochastisch unabhängig gilt hingegen:

LaTeX: P(A\cap B) = P(A) \cdot P(B)

Siehe auch

Weblinks

Einzelnachweise

  1. Hochspringen Langenscheidt: probabilitas
  2. Hochspringen Langenscheidt: probare