Czy Polska mogła wyjść z grupy i co mają do tego pruskie konie

04Lip12

Mecz Francja-Prusy w Jenie, ME 1806, 20000:7500

ResearchBlogging.org

Przez ostatnie tygodnie byliśmy bombardowani mistrzostwami Europy w piłce nożnej (nawet dosłownie, bo na naszym starym blokowisku w Prenzelbergu po golu Niemiec rzucano petardami z okien). Oglądając jakiś mecz zacząłem się zastanawiać, do jakiego stopnia o wyniku meczu decyduje przypadek. Dajmy na to, drużyna A wygrała z B 3:2; jakie było prawdopodobieństwo, że drużyna A by przegrała? Że wynik byłby 2:3? Czy można coś takiego w ogóle policzyć? A czy można policzyć szanse polskiej drużyny wyjście z otchłani grupy? Jeśli można, no to jesteśmy jak Marvin, rzucający od niechcenia prawdopodobieństwami.

Wychodzi mi, że dokonując pewnych niezbyt skomplikowanych i wcale realistycznych założeń jak najbardziej można. Niestety, tylko po fakcie.

Pierwsze założenie jest takie: w konkretnym meczu prawdopodobieństwo strzelenia gola przez jedną z drużyn jest mniej więcej takie samo przez cały czas.

Jak to sprawdzić? Wikipedia podaje nie tylko listę goli, ale też „kto w której minucie strzelił„. Przy pomocy trzylinijkowca w Perlu i paru poleceń można wyciągnąć wszystkie dane i sprawdzić, czy minuty strzelenia gola mają rozkład jednostajny.

I rzeczywiście, mają. Można to sprawdzić przy pomocy testu χ2. Test na zgodność z rozkładem jednostajnym daje p= 0.4. Oznacza to, że rozkład jednostajny da podobne (lub bardziej jednorodne) wyniki w 40% wypadków. Można więc przyjąć, że prawdopodobieństwo strzelenia gola jest średnio w każdej minucie takie samo. Poniżej porównuję obserwowany rozkład z rozkładem jednostajnym (po lewej) i normalnym (po prawej). To są tak zwane wykresy kwantyli (Q-Q plots). Im bardziej punkty leżą na prostej linii, tym bardziej rozkłady są do siebie podobne. Jak widać, obserwowany rozkład minut, w których padły bramki, bardzo przypomina rozkład jednostajny.

Oczywiście, w konkretnym meczu to nie zawsze będzie prawda. W finale Hiszpanie grali z Włochami; ponieważ w momencie kontuzji jednego z graczy w 60′ Włosi wykorzystali już swoje wszystkie dozwolone wymiany, do końca meczu grali w osłabionym składzie — prawdopodobieństwo strzelenia gola przez Hiszpanów najwyraźniej wzrosło. W ogóle, każda wymiana zawodników albo zmiana strategii po przerwie może zmienić prawdopodobieństwo strzelenia gola. Jednak powyższy test przekonuje nas, że przynajmniej nie ma dużych różnic systematycznych (np. takiej, że gole raczej padają w drugiej połowie meczu, albo wyjątkowo rzadko w pierwszych minutach). Drugiego argumentu za przyjęciem tego założenia dostarczy mi za chwilę pruskie konie.

Kolejne założenie jest właściwie trywialne: prawdopodobieństwo, że dwa gole zostaną strzelone równocześnie jest zerowe.

Wreszcie trzeba założyć, że każdy gol jest niezależnym zdarzeniem. Jest to nieintuicyjne: wydaje się, że strzelenie gola znacząco wpływa na morale obu drużyn, i może ułatwić (bądź utrudnić, zależy jak patrzeć) strzelenie następnego. I to jednak można sprawdzić. Otóż jeśli strzelenie jednego gola znacząco zmienia prawdopodobieństwo strzelenia następnego, to czas do strzelenia pierwszego gola powinien się znacząco różnić (w jedą bądź w drugą stronę) od czasu między pierwszym a drugim golem. Ale się nie różni (test t dla par, p = 0.6).

Rzecz jasna, w obrębie jednego meczu albo dla konkretnej drużyny to może nie być prawda. Nie sposób łatwo tego stwierdzić, choć podejrzewam, że ktoś to już przeanalizował na podstawie większych zestawów danych (ba, myślę nawet, że chodzi o rutynową analizę dostępną dla trenerów drużyn piłkarskich).

Wreszcie, potrzebne jeszcze jedno założenie: gole, które strzeliła drużyna A nie wpływają na prawdopodobieństwo strzelenia gola przez drużynę B. Można oczywiście wyobrazić sobie, że wpływają: może drużyna B zostanie zmotywowana do lepszej pracy, może trener postanowi zmienić strategię, może wprowadzi nowych zawodników. Albo przeciwnie: gol drużyny A zdemotywuje drużynę B. Tym niemniej jednak nie mam dość danych, żeby to założenie sprawdzić, a ponieważ scenariuszy, jak widać, jest bezliku, stosunkowo bezpiecznie można założyć, że są to procesy niezależne.

Podsumowując te nieco nierealistyczne, ale też nie kompletnie z gwiazd wzięte założenia:

  • Gole są zdarzeniami niezależnymi
  • Strzelenie gola jest w jednej chwili równie prawdopodobne co w innej
  • Można strzelić conajwyżej jednego gola na raz

Takie coś nazywane jest procesem Poissona.

Proces Poissona w najprostszym wydaniu pozwala określić prawdopodobieństwo pewnego wyniku (liczby goli strzelonych przez drużynę A) w określonym czasie (na przykład 90′). Funkcja prawdopodobieństwa w tym wypadku zależy od czasu i pewnego parametru, określającego średnią liczbę goli strzelonych na jedną jednostkę czasu (tradycyjnie określa się ten parametr grecką literą λ). Jeśli w pewnym meczu drużyna A strzela średnio 3 gole na 90 minut, a drużyna B 1 gol na 90 minut, to prawdopodobieństwa strzelenia innej liczby goli przez jedną i drugą drużynę wyglądają tak:

Powyższe wykresy to rozkład Poissone’a dla różnych parametrów λ. Nie będę tutaj przytaczał wzoru tej funkcji, bo zawiera wykrzykniki i literkę e.

Parametr λ dla drużyny A zawiera, oczywiście, wpływ drużyny B: im drużyna B lepiej gra, tym szansa strzelenia przez drużynę A gola, (parametr λ) jest niższa. Można powiedzieć, że parametr λA to „siła” drużyny A w stosunku do B. W meczu może być tak, że obie drużyny są silne wobec siebie, i wtedy wynik jest obustronnie wysoki; może być też tak, że obie są słabe, i wtedy wynik jest bliski 0:0 (jedenastki pozostawiam jako ćwiczenie).

Kiedy pisałem tę notkę, zajrzałem do Wikipedii by znaleźć przykłady procesów Poissona. Klasycznym przykładem jest rozpad promieniotwórczy i konie w pruskiej armii; ale Wikipedia podaje jeszcze jeden przykład… goli w piłce nożnej — na podstawie artykułu Heuera z 2010 roku. Tak że nie jestem odosobniony w swoich przemyśleniach; ale na wszelki wypadek nie przeczytałem tego artykułu.

Z tymi pruskimi końmi to w ogóle ciekawa sprawa, i ma znaczenie dla moich rozważań. Przypadek opisał niemiecko-rosyjski statystyk polskiego pochodzenia, Władysław Bortkiewicz vel Ladislaus von Bortkiewicz (wiele źródeł pisze o nim „rosyjski statystyk”, jednak większą część życia spędził w Berlinie i większość swoich prac opublikował w Niemczech). Bortkiewicz zebrał dane dotyczące dziesięciu korpusów pruskiej armii z dwudziestu tomów urzędowej Preussische Statistik; każdy tom opisywał jeden rok. Tak naprawdę, tych korpusów było czternaście, ale cztery zostały usunięte przez Bortkiewicza a priori, ponieważ miały inną strukturę. Dla każdego korpusu i każdego tomu Bortkiewicz wynotował liczbę przypadków choroby Bortkiewicza, choroby śmiertelnej niejako z definicji: to znaczy, liczbę przypadków śmierci żołnierza w wyniku kopnięcia przez konia. Serie te znakomicie dały opisać się rozkładem Poissona; parametr λ opisuje tu średnią liczbę zabitych osób na rok na korpus i wynosi ok. 0.67.

Bortkiewicz użył tego przykładu dla ilustracji czegoś, co nazwał „prawem małych liczb” (law of small numbers, LSN), w nawiązaniu do Poissonowskiego „prawa wielkich liczb”. Prawo małych liczb to bywa źle rozumiane (Quine & Seneta 1987), a chodzi o rzecz następującą: jeśli ma się do czynienia z pewną niewielką liczbą obserwacji, z których każda pochodzi z innego procesu Poissona o innym parametrze λi, to wzięte do kupy wyglądają — i można je tak traktować — jakby pochodziły z jednego procesu Poissona o jednym parametrze λ. Bortkiewicz pokazał, że mimo iż w każdym korpusie liczba śmierci od końskiego kopnięcia na rok była trochę inna (parametry λi różniły się dla różnych korpusów), to mimo to można było zebrać wszystkie dane ignorując podział na korpusy i uzyskać świetne przybliżenie rozkładem Poissona o jednym parametrze λ. To ważne, bo dodatkowo wspiera nasze założenie o jednorodności parametru λ w czasie całego meczu.

Wpływ Bortkiewicza na rachunek prawdopodobieństwa i statystykę (i nie tylko, Bortkiewicz zajmował się i teoriami Marksa, i rozpadem promienitwórczym) jest na tyle duży, że „rozkład Poissona” według niektórych powinien się nazywać „rozkładem Bortkiewicza”. Poisson co prawda wyprowadził wzór tej funkcji (jako granicę rozkładu dwumianowego), ale czyniąc to, niewiele rozwinął wcześniejszą pracę osiemnastowiecznego matematyka, Abrahama de Moivre’a. Ani Poisson, ani de Moivre nie rozumieli znaczenia tej funkcji ani jej konsekwencji dla statystyki, które w pełni zostały objaśnione dopiero w pracach Bortkiewicza (Good, 1986).

I.J. Good and others have argued that the Poisson distribution should be called the Bortkiewicz distribution, but then it would be very hard to say or write

Tianhyi Zheng

Wracając do futbolu: ponieważ założyłem, że strzelanie goli przez obie drużyny jest niezależne (pomijając wpływ jednej drużyny na parametr λ drugiej drużyny), to mogę policzyć prawdopodobieństwo konkretnego wyniku (np. 3:1) mnożąc prawdopodobieństwo strzelenia dokładnie trzech goli przez A (0.22) przez prawdopodobieństwo strzelenia dokładnie jednego gola przez B (0.37). Innymi słowy, przybliżam więc mecz przy pomocy dwóch procesów Poissona: jednym jest strzelanie goli przez drużynę A, drugim — strzelanie goli przez drużynę B.

Poniższa ilustracja przedstawia prawdopodobieństwa wszystkich wyników (dla mniej niż 7 goli każdej drużyny, liczby w kółkach to prawdopodobieństwa konkretnego wyniku):

Niespodzianka: prawdopodobieństwo, że wynik będzie dokładnie 3:1 wcale nie jest takie wysokie (0.08)! Równie dobrze mogło być 2:1, 3:0 albo 2:0. To oczywiście nie zmieniłoby wyniku meczu, ale sumując prawdopodobieństwa, można policzyć prawdopodobieństwo wygranej drużyny B (0.09) albo remisu (0.13). Prawdopodobieństwo, że przy takim rozkładzie sił (drużyna A ma trzykrotnie większe szanse na wkopanie piłki do bramki niż drużyna B) drużyna A nie wygra jest prawie 1/4. To wcale nieźle! Wynik meczu, nawet jeśli nie zmienia się rozkład sił, wcale nie jest przesądzony, całkiem sporo zależy od przypadku.

Pozostał jeszcze jeden statystyczny myk, a mianowicie — skąd wiadomo, jakie wartości mają parametry λA i λB w danym meczu? Trzeba je jakoś oszacować. Dla mnie najbardziej intuicyjną metodą jest oszacowanie najwyższego prawdopodobieństwa metoda najwyższej wiarygodności. Nie jestem całkiem pewien polskiego określenia; po angielsku mówi się „Maximum Likelihood Estimation” (MLE). Parametr λ decyduje o prawdopodobieństwie uzyskania pewnego wyniku. Wynik jest znany (np. trzy gole dla Portugalii). Dobiera się λ w ten sposób, by prawdopodobieństwo uzyskania wyniku „trzy gole w meczu” było możliwie największe. Oczywiście, prawdziwy parametr może być inny, no ale go nie znamy — w tym cała statystyka. Jeśli za jednostkę czasu obierze się cały mecz (90′, pomijając dogrywkę, którą pozostawiam jako ćwiczenie), to λ w trywialny sposób będzie liczbą goli strzelonych podczas meczu. Tak naprawdę, nie ma potrzeby zaprzęgania tu MLE; ale MLE jest moim zdaniem bardzo intuicjne, no i wreszcie cały artykuł służy przemycaniu rachunku prawdopodobieństwa pod płaszczykiem dyskusji ME.

Ciekawa rzecz dzieje się, jeśli jakaś drużyna podczas meczu nie strzeliła żadnego gola. Wówczas oszacowany parametr (fachowo: estymator) jest równy zeru. To znaczy, że drużyna nie miała żadnych szans na strzelenie gola; jakikolwiek wynik, w którym strzeliła chociaż jednego gola, ma zerowe prawdopodobieństwo.

Teraz czas, by przyjrzeć się konkretnym drużynom. I konkretnym meczom.

Pierwsze pytanie: czy Polska mogła, ekhm, wyjść z grupy? Można dla każdego meczu policzyć prawdopodobieństwo wygranych bądź remisu, i policzyć (zakładając niezależność wyników każdego meczu) prawdopodobieństwo każdej kombinacji. Na przykład weźmy mecz Polska – Rosja, w którym uzyskano remis 1:1 (nie przechodzi mi przez klawiaturę zdanie „uzyskaliśmy”; jakie kurna uzyskaliśmy, ja nawet kopnąć piłki dobrze nie potrafię).

Jak widać, prawdopodobieństwo wyniku 1:1 nie jest wcale takie duże; a jeśli policzyć, okazuje się, że prawdopodobieństwo remisu wynosiło 0.3; zaś wygrania dla każdej z drużyn — 0.35. Czyli z prawdopodobieństwem 0.35 Borussia Dortmund polska drużyna mogła wygrać ten mecz.

Dla każdego z sześciu meczy w grupie można policzyć prawdopodobieństwo wygranej drużyny A, drużyny B oraz remisu. Dla danej kombinacji wyników z sześciu meczu, można policzyć prawdopodobieństwo takiej kombinacji. Istnieje 3^6 = 729 możliwych kombinacji wyników, i dla każdej z nich można policzyć prawdopodobieństwo. Wreszcie, starczy zsumować prawdopodobieństwa tych kombinacji, w których drużyna polska wyszła z grupy. Oczywiście, można to policzyć dla każdej z czterech drużyn w grupie.

Wyniki, czego można oczekiwać, bardzo przypominają liczbę punktów otrzymanych po wszystkich rozgrywkach grupowych:

Drużyna Punkty Prawdopodobieństwo
Czechy 6 0.72
Grecja 4 0.56
Polska 2 0.29
Rosja 4 0.43

(Nb powyższe prawdopodobieństwa nie sumują się do 1 — dlaczego?)

Niby wyniki nie zaskakują (teraz mogę powiedzieć: I’ve calculated your chance of survival, but I don’t think you’ll like it). Mimo to ciekawe, że nie zmieniając rozkładu sił i względnej siły drużyn, polska ekipa miała niemal 30% szans na grę w ćwierćfinale.

Jako ostatnie już ćwiczenie pozostawiam policzenie prawdopodobieństwa, że polska ekipa uzyskała tytuł mistrza Europy. Dla ułatwienia podam, że kompletnie nie da się tego policzyć tak, jak pokazałem to powyżej.

Literatura

L. v. Bortkiewicz (1898). Das Gesetz der kleinen Zahlen Leipzig, Germany: B.G. Teubner DOI: 10.1007/BF01707919
I. J. Good (1986). Some Statistical Applications of Poisson’s Work Statistical Science, 1 (2) DOI: 10.1214/ss/1177013690



5 Responses to “Czy Polska mogła wyjść z grupy i co mają do tego pruskie konie”

  1. (MLE to zdaje się po polsku „metoda największej wiarygodności”)

    Przyszła mi do głowy jeszcze taka analiza, nie wiem na ile sensowna (dlatego pytam). Dla każdego z meczów określiłeś parametry rozkładów jako równe estymatorowi na podstawie rzeczywistego wyniku, czyli takiego jednopunktowego MLE. A gdyby tak:
    1) dla i-tego meczu wziąć całą płaszczyznę S_i = \lambda_A \times \lambda_B (także wartości niecałkowite)
    2) na podstawie rzeczywistego wyniku dla każdego x_i \in S_i określić prawdopodobieństwo, że rozkład ma parametry x_i.
    3) Zbierając prawdopodobieństwa ze wszystkich meczów po wszystkich „i” określić prawdopodobieństwo danego zdarzenia („wyjście z grupy”) ważąc je prawdopodobieństwami poszczególnych rozkładów (z pkt. 2)

    Widzę tu taką słabą stronę, że zakładam, że zdarzenie „mecz Polska:Rosja ma rozkład 0.2/7.9” jest niezależne od zdarzenia „mecz Polska:Czechy ma rozkład 6.2/0.1”. A to z pewnością nie zachodzi. Tyle, że takie „brzegowe” rozkłady (absurdalnie oddalone od rzeczywistego wyniku) i tak będą miały bardzo małe prawdopodobieństwa, więc może jest to sensowne?

    • 2 January

      O! wiarygodność. Już poprawię.

      Jeśli chodzi o to, co piszesz, to chyba tak, albo podobnie, zrobił to Heuer (którego nie czytałem, a tylko przeglądnąłem). To, co piszesz, brzmi sensownie, ale chyba nie wiedziałbym, jak to zrobić.

      Tak jak się zastanawiam, to wziąłbym wyniki z eliminacji i starał się przewidzieć wyniki meczów grupowych. Ale to trochę za dużo roboty; to mniej więcej — obliczeniowo — wartość jednej pracy magisterskiej.

      • Doszedłem do wniosku, że potrzebowałbym jeszcze rozkładu \lambda\times\lambda. Można by go wyciągnąć z wyników wszystkich meczów w historii futbolu może, albo założyć, że po prosty jest jednostajny w jakimś prostokącie.

  2. 4 anuszka

    Jeśli dobrze rozumiem twój sposób ustalania \lambda, robisz to ex post, zakładając, że wynik, który padł w meczu, jest tym najbardziej prawdopodobnym. No ale w rzeczywistości mógł on być z ogona jakiegoś innego rozkładu. Tego nie wiemy.

    Ale można by zrobić tak: Gdy padł np. wynik 3, to patrzymy – dla rozkładu z \lambda=1 prawdopodobieństwo tego zdarzenia byłoby jakieś 0.7, dla \lambda=2 byłoby jakieś 0.3, dla \lambda=3 byłoby jakieś 0.23. (Wystarczy przejrzeć tylko kilka rozkładów dla kilku pierwszych lambd, bo wyniki w meczach zazwyczaj nie są wysokie.) No i teraz zrobić tę naszą lambdę ważoną tamtymi prawdopodobieństwami.

    Innymi słowy, zrobić ten rachunek, który ty zrobiłeś, ale trzykrotnie – dla \lambda=1,2,3, a wyniki tego rachunku zsumować z wagami powyższych prawdopodobieństw.

  3. 5 anuszka

    (tam miało być 0.07, a nie 0.7, sory)



%d bloggers like this: