INFORMACJE - POMOC - INSTRUKCJE

( Program do Lotto )
NeuroLotto
v1.6.4
( Program do Mini Lotto )
NeuroMini
v1.6.4
( Program do Multi Multi )
NeuroMulti
v1.6.4

Spis treści

  1. Podstawowa obsługa programów 
    1. Analizy i Typowania
    2. Wybór algorytmu typującego
      1. Algorytmy Statystyczne
      2. Własne liczby
      3. Sieć neuronowa i algorytm Pseudolosowy sterowany
  2. Tablica prawdopodobieństwa 
    1. Dane i funkcje tablicy prawdopodobieństwa
    2. Skuteczność w grze
    3. Prawdopodobieństwo szacowane i prawdopodobieństwo trafienia
    4. Przedział analizy trafień
  3. Sieć Neuronowa - Wskazówki Jak Grać i Jak Uczyć?
    1. Wstępny opis uczenia
    2. Wybór Wektora Uczącego
    3. Uczenie sieci neuronowej
    4. Jak optymalnie uczyć i które epoki zapisać?
  4. Algorytm Pseudolosowy Sterowany
    1. Wyszukiwanie konfiguracji

 

1. Podstawowa obsługa programów 

Programy NeuroLotto, NeuroMini, NeuroMulti obsługuje się w jednakowy sposób. Algorytmy analiz liczbowych i sieć neuronowa są jednakowe dla trzech programów, za wyjątkiem różnic wynikających z właściwości danej gry (ilość losowanych numerów, zakres losowanych liczb).

 

Główne okna programów wyświetlają ostatnie dwa wyniki losowań.

  

 

 

Przy każdym uruchomieniu programu, wyniki najnowszych losowań pobierane są automatycznie z oficjalnej strony serwisu Lotto. 
Pobieranie trwa krótko, średnio od 3 do 5 sekund. Nie musimy więc martwić się, że będzie brakowało któregoś losowania w archiwum. 

 

 

1.1. Analizy i Typowania

Kliknięcie w przycisk Analizy i Typowania otwiera okno historii wyników losowań, gdzie w prosty sposób możemy typować prawdopodobniejsze liczby przyszłych losowań.

Typowanie liczb wykonywane jest na całą historię wyników losowań i jest niezmienne w jednej konfiguracji wybranego algorytmu. 

 

 

Okno wyświetlane po kliknięciu w przycisk Analizy i Typowania. Widzimy tu archiwum wyników losowań i przyciski wyboru algorytmów typujących. 

 

 Wygląd i właściwości są analogiczne, jak w programach NeuroMini i NeuroMulti.

 

 

1.2. Wybór algorytmu typującego

W aktualnych wersjach programów mamy do dyspozycji cztery algorytmy typujące. 

Menu główne wyboru algorytmu typującego.

 

 

1.2.1. Algorytmy Statystyczne

Utworzona została grupa algorytmów o nazwie "Statystyczne" obecnie znajdują się w niej dwa algorytmy:

  • Statystyczno wagowy
  • Eliminacja liczb

Są to algorytmy oparte o statystykę liczb, zatem w obliczeniach obstawianego losowania brane są pod uwagę jedynie ilości wystąpień każdej liczby z wcześniejszych wyników losowań. 

Czytaj więcej na: http://systemnatotka.pl/index.php/metody-typowan.

 

Kliknięcie w przycisk Statystyczne wyświetli grupę tych algorytmów. 

 

Następnie klikamy w jeden z przycisków odpowiadający danemu algorytmowi, wyświetlony zostanie panel, w którym znajduje się rozwijana lista i przycisk Wykonaj Typowania. Z rozwijanej listy wybieramy system gry - od standardowego 6 typowań do systemowego 12 typów w przypadku gry Lotto.

 

Kliknięcie przycisku Wykonaj Typowania wykona typowania na całą historię wyników i zaproponuje liczby obstawiające przyszłe losowanie.

W tablicy prawdopodobieństwa natychmiast otrzymamy informację odnośnie skuteczności gry wybranego algorytmu.
Czytaj więcej rozdział 2. Tablica prawdopodobieństwa. 

 

 

1.2.2. Własne liczby

Ta opcja jest szczególnie przydatna graczom, którzy mają swoje upatrzone liczby i tylko tymi liczbami obstawiają kolejne losowania. Dzięki tej możliwości możemy przeanalizować nasze liczby pod względem ilości trafień z poszczególnych stopni. Otrzymane wyniki będą również przeanalizowanie pod kątem skuteczności gry.

 

Wprowadzanie swoich liczb. 

W głównym menu algorytmów typujących klikamy przycisk Własne liczby. Następnie w polu tekstowym widocznym na ilustracji poniżej wpisujemy swoje liczby i wciskamy klawisz ENTER.  

 

Ilość typowanych liczb (od 5 do 12 w przypadku gry Mini Lotto), wybierana jest automatycznie w zależności od ilości wpisanych liczb. Wpisanie np. siedmiu liczb będzie skutkowało automatycznym wyborem zakładu systemowego 7 typów.

Zasada działania jest podobna, jak w przypadku pozostałych algorytmów, z tą różnicą, że program wypełnia całą dostępną historię wyników wprowadzonymi liczbami przez użytkownika.  

 

 

1.2.3. Sieć neuronowa i algorytm Pseudolosowy sterowany

Nieco inaczej postępujemy w przypadku algorytmów Pseudolosowego sterowanego i Sieci neuronowej.

Kliknięcie w przycisk Pseudolosowy Sterowany w głównym menu wyświetli panel dla typowań liczb tym algorytmem. 

 

Przycisk Tabela Typowań otwiera nam okno z tabelką, w której to otwieramy wcześniej utworzone konfiguracje algorytmu typującego. 

Krok 1.

 

 

krok 2.

 

 

Kliknięcie w dowolny wiersz natychmiast typuje liczby na całą historię wyników, łącznie z jedną propozycją liczb na przyszłe losowanie. Zgodnie ze specyfiką gry Lotto, z rozwijanej listy wybieramy system gry od standard 6 typowań do system 12 typów.

Korzystając z algorytmu sieci neuronowej postępujemy analogicznie, jak w przypadku algorytmu pseudolosowego sterowanego. 

Wybierając typowanie liczb algorytmem opartym o sieć neuronową ujrzymy podobne okno z tabelką do tego zamieszczonego powyżej. Wiersze tabelki odpowiadają zapisanym wcześniej konfiguracją sieci neuronowej. 

 

 

2. Tablica prawdopodobieństwa

Jedną z najistotniejszych możliwości tablicy prawdopodobieństwa jest funkcja analizy częstotliwości trafień zaprogramowanych algorytmów typujących. Funkcja ta pozwala analizować skuteczność algorytmów, co w dużej mierze pomogło w ich projektowaniu i późniejszej konfiguracji.

Przykładem mało skutecznego algorytmu jest algorytm łączenia liczb w najczęściej występujące pary, czyli wybór liczb, które najczęściej występują w parze z inną liczbą. 

Gra tą metodą mogłaby wydawać się korzystna, ale w rzeczywistości tak nie jest.

Typowanie liczb tym sposobem nie przynosiło pożądanych efektów.

Podsumowując, efekty zbliżone są do tych, które powinny wyjść według wskazań prawdopodobieństwa, tzn. Analiza skuteczności zbliżona do 0%.

 

Tablicę prawdopodobieństwa możemy wyświetlić dopiero po wykonaniu pierwszego dowolnego typowania liczb, ponieważ uwzględniane w niej są ilości trafień w dostępnej historii wyników losowań. 

 

Tablicę wyświetlamy poprzez kliknięcie prawym przyciskiem myszy w ramkę znajdującą się u dołu po lewej stronie okna Analizy i Typowania

 

W menu kontekstowym klikamy Tablica Prawdopodobieństwa

 

 

2.1. Dane i funkcje tablicy prawdopodobieństwa

Tablica prawdopodobieństwa wyświetla matematyczne prawdopodobieństwo trafienia (zakładów prostych i systemowych), łącznie z prawdopodobieństwem oszacowanym na podstawie rzeczywistych trafień. 

 

Tablica prawdopodobieństwa programu NeuroMini.

 

 

 

2.2. Skuteczność w grze

O korzystnej skuteczności w grze losowej możemy mówić wtedy, kiedy otrzymujemy więcej trafień w stosunku do prawdopodobieństwa wygranej w określonym przedziale losowań. 

Skuteczność gry (skuteczność typowań) wyrażana jest w procentach i obliczana jest na podstawie porównań prawdopodobieństwa matematycznego z rzeczywistą liczbą trafień. 

Uwaga. Nie mylić z procentowym prawdopodobieństwem trafienia np. 50% skuteczności w grze nie jest tym samym, co prawdopodobieństwo trafienia 1 do 2

50% skuteczności oznacza około dwukrotnie podwyższone prawdopodobieństwo trafienia

 

Przykłady reprezentacji skuteczności gry w programach NeuroLotto, NeuroMini i NeuroMulti.

 

 

Skuteczność 
dodatnia - korzystna.

 

Skuteczność
ujemna - niekorzystna.

 

Skuteczność
dodatnia - nieokreślona.

Skuteczność 
ujemna – nieokreślona.

 

 

 

2.3. Prawdopodobieństwo szacowane i prawdopodobieństwo trafienia

Prawdopodobieństwo trafienia np. czwórki w Mini Lotto wynosi 1 do 4598,21 jest to wartość wyliczona z wzoru na prawdopodobieństwo, tą samą wartość zobaczymy na oficjalnej stronie Lotto.

Co konkretnie oznaczają te liczby?

Jeśli zagramy 4598 razy w Mini Lotto, to wysoko prawdopodobne jest, że trafimy przynajmniej jedną czwórkę. 

Wyżej na zamieszczonej tablicy prawdopodobieństwa programu NeuroMini, prawdopodobieństwo szacowane trafienia czwórki wynosi 1 do 957, a to oznacza, że jeśli zagramy 957 razy to wysoko prawdopodobne jest, że trafimy przynajmniej jedną czwórkę.  

W rezultacie otrzymujemy 79,2% skuteczności w grze.

 

 

2.4. Przedział analizy trafień

Daje możliwość określenia przedziału archiwalnych wyników losowań, na których wykonany został algorytm typujący, czyli, każde losowanie obstawione jest liczbami wytypowanymi przez ten algorytm.

 

Reprezentowany graficznie w postaci niebieskiego paska na białym tle. Cały pasek (niebieski + biały) jest wizualizacją graficzną archiwum dostępnych wyników losowań. Prawa strona paska to ostatnie wyniki losowań, zaś lewa to początek dostępnego archiwum. Niebieski pasek jest wyborem losowań które są analizowane. 

Taka reprezentacja przedziału analizy trafień nie umożliwia podawania konkretnie (od .. do) numerów losowań. Chodziło o orientacyjny i szybki podgląd skuteczności, który możemy szybko i wygodnie zmieniać przy pomocy suwaka znajdującego się niżej pod niebiesko-białym paskiem. 

Zmiana przedziału nie ma wpływu na typowanie liczb - odpowiada jedynie za podgląd skuteczności. 

Opcja wyboru "K" i "P". 

Przy wybranym "K" przesuwanie suwaka zwiększa, lub zmniejsza analizowany przedział zawsze od ostatniego wyniku losowania (prawa strona). Przy wybranym "P" przesuwanie suwaka przesuwa cały przedział, który wcześniej ustalony został przy wybranej opcji "K". 

 

 

 

3. Sieć Neuronowa – Wskazówki Jak Grać i Jak Uczyć?

Sieć neuronowa jest modelem matematycznym, symulującym pracę neuronów, które są w każdym mózgu. Powszechnie wiadomo, że nie ma takiej możliwości, by odgadywać liczby, które mają zostać wylosowane. 

Z niewyjaśnionych przyczyn gry liczbowe Totalizatora są w pewnym stopniu przewidywalne. 

Udowadniają to częstsze przypadki trafień przez wcześniej wyuczoną sieć poprzednich wyników losowań.

 

Przejście do panelu uczenia sieci:

W głównym menu wyboru algorytmów typujących klikamy przycisk Sieć Neuronowa, następnie klikamy Uczenie Sieci Neuronowej. Po wykonaniu tych czynności ujrzymy panel, który przedstawia niżej zamieszczona ilustracja. 

 

 

3.1. Wstępny opis uczenia

  1. W panelu obsługi uczenia sieci klikamy przycisk przeładowania wyników losowań, operacja odpowiada, za prze-konwertowanie listy wyników losowań, na sygnały wejściowe sieci (operacja zajmuje kilka sekund, średnio od 2 do 3 sekundy w zależności od szybkości naszego komputera) .
  2. Wybieramy wektory uczące, czyli wyniki poprzednich losowań. 
  3. Uruchamiamy proces uczenia sieci. Na tym etapie modelowane są wagi sieci w taki sposób, by przetworzenie końcowe wytypowało liczby pokrywające się z wektorem uczącym w poprzednich losowaniach.
  4. W procesie uczenia obserwujemy wykres błędu sieci, jest to błąd ERMS. Sieć neuronową możemy uznać za nauczoną, jeśli błąd ERMS przestanie się znacząco zmniejszać, co z łatwością można zaobserwować na wykresie uczenia. Dalsze uczenie sieci nie przynosi większych zmian w typowaniach.
  5. Przerywamy proces uczenia i zapisujemy efekty. Umożliwi to szybkie i wygodne typowanie liczb przyszłych losowań.

 

 Uczenie może zająć od 2 do 4 minuty, więc jest nieco uciążliwe, dlatego programy umożliwiają zapis wielu konfiguracji wyuczonej sieci. 

 

 

3.2. Wybór Wektora Uczącego

Sieć neuronowa posiada zdolności uogólniające wiedzę, dzięki temu w mniejszym, lub większym stopniu sprawdza się w przewidywaniu losowanych liczb, tylko wtedy gdy ukryty jest pewien wzorzec. W grach liczbowych Totalizatora najwyraźniej takie wzorce istnieją. Wzorce te nie są jednak proste do wykrycia. 

Wektor uczący jest czymś czego sieć neuronowa się uczy, czyli w tym przypadku są to poprzednie wyniki losowań. 

 

Jak wybrać wektory uczące? 

W panelu obsługi uczenia sieci klikamy przycisk Wektory uczące, otwarte zostanie okno widoczne poniżej. 

 

 

Okno wyboru wektorów uczących.

 

Prostokąty reprezentują wyniki losowań. Żółte są pomijane w procesie uczenia, zaś czerwone to wyniki losowań, których sieć neuronowa będzie się uczyć. 

Wyboru dokonujemy przy pomocy myszki. Najeżdżamy kursorem na jeden z żółtych prostokątów - prostokąt pod kursorem myszki zapala się na niebiesko.
W ramce, dolnej części okna możemy odczytać numer losowania, aktualnie wskazywany przez kursor myszki. 

Wciskamy lewy przycisk myszy na wybranym żółtym prostokącie. Następnie trzymając wciśnięty przycisk przeciągamy kursor, prostokąty oznaczone zostają kolorem czerwonym. 

W ramce u dołu okna po lewej stronie wyświetlana jest liczba łącznie wybranych wektorów. 

Check Box Wybór / usuwanie wyboru odpowiada za opcję wyboru wektora, lub usunięcia wyboru. 

Gdybyśmy chcieli wykluczyć wybrane wektory, to wystarczy odznaczyć pole Wybór / usuwanie wyboru

 

Po dokonaniu wyboru wektorów uczących zamykamy okno. 

 

 

3.3. Uczenie sieci neuronowej

Jeśli mamy już zdefiniowane wektory uczące, to możemy przystąpić do procesu uczenia. W panelu obsługi uczenia sieci klikamy przycisk Uczenie. Otwarte zostaną dwa okna widoczne poniżej.

 

 

 

Kliknięcie w przycisk Uczenie Sieci rozpoczyna proces uczenia wybranych wektorów. Sieć uczona jest popularną metodą wstecznej propagacji błędu. Wykres, który przedstawia wyżej zamieszczona ilustracja jest wykresem błędu sieci, zwanym błędem ERMS. W procesie uczenia stan sieci neuronowej, z przetworzenia każdej epoki zapisywany jest tymczasowo w oddzielnym oknie (Lista Epok Sieci). Po zatrzymaniu uczenia kliknięcie w dowolny wiersz w tabelce epok przywołuje stan sieci neuronowej z danej epoki, równocześnie wykonując typowanie liczb na wszystkie poprzednie wyniki losowań, łącznie z propozycją liczb przyszłego losowania. 

Epoka jest, to pojedyncze przetworzenie w procesie uczenia sieci. W każdej epoce sieć zwraca wynik, który porównywany jest z wektorem uczącym, na tej podstawie wyliczany jest błąd sieci (ERMS), który następnie jest wstecznie propagowany do sieci. Wsteczna propagacja błędu ma za zadanie obliczenie nowych wartości wag w sztucznych neuronach, w taki sposób, by kolejne przetworze skutkowało mniejszym błędem na wyjściu.

Możemy dowolnie zapisywać stany sieci z poszczególnych epok. Gdy mamy zaznaczoną wybraną epokę, kliknięcie w przycisk Przenieś do zapisu kopiuje wybrany wiersz do oddzielnego okna zapisanych sieci. Okno zapisanych sieci (Lista stanów sieci neuronowej), umożliwia pełną edycję archiwizowania rezultatów uczenia sieci. Pozwoli nam to na wygodne typowanie liczb przyszłych losowań i szczegółową obserwację efektów pracy sieci neuronowej na przyszłych wynikach losowań. 

Parametry BETA, ALFA i ETA są współczynnikami uczenia sieci. Charakteryzują się niskimi wartościami najczęściej z zakresu od 0,01 do 1. Program przyjmuje wartości max 9. Parametry nie mają znaczącego wpływu na skuteczność typowań, prawidłowy dobór parametrów przyspiesza proces uczenia sieci. Przycisk "Nowa sieć neuronowa" zeruje stan sieci i pozwala na ponowne uczenie sieci np. innych wektorów.

 

 

3.4. Jak optymalnie uczyć i które epoki zapisać?

Epoka reprezentuje stan sieci neuronowej. Oto wskazówki, jak optymalnie tworzyć własne listy stanów sieci neuronowej. Zapis wybranych epok umożliwi szybkie i wygodne typowanie liczb na przyszłe losowania.

  • Wybieramy np. od 10 do 600 wyników losowań (wektory uczące).
  • Uczymy sieć neuronową średnio od 40 do 300 epok, dalej nie ma już większych zmian w typowaniach. Liczba epok procesu uczenia uzależniona jest od parametrów uczenia i liczby wektorów uczących.
  • Z listy epok uczenia sieci wybieramy od 2 do 4 pozycje do zapisu, przy czym wybór rozkładamy na całą listę, np. po jednej pozycji z: początek listy (epoki od 15 do 100), środek listy (epoki od 100 do 200), koniec listy (epoki od 200 do 300). 
  • Powtarzamy te czynność wybierając inne wektory uczące, i tak do uzbierania wystarczającej nam liczby pozycji stanów sieci neuronowej, które następnie zapisujemy.

 

Czasami interesujące efekty można uzyskać, ucząc już wyuczoną sieć, ale innych wektorów niż tych, których sieć uczyła się za pierwszym razem. 

Można to zrobić na dwa sposoby: 

  1. Wybieramy pewne wektory uczące i uczymy sieć np. do 100 epok. Następnie zatrzymujemy proces uczenia i wybieramy inne wektory uczące, po czym ponownie uruchamiamy proces uczenia.
  2. Można też uczyć sieć załadowaną z pliku, wybierając jedną z pozycji z listy stanów sieci. Wybieramy wektory uczące (częściowo mogą się pokrywać z tymi, których sieć uczyła się za pierwszym razem). Uruchamiamy proces uczenia sieci, wyświetlony zostanie komunikat informujący o nie wyzerowanym stanie sieci neuronowej, klikamy “Ok” i kontynuujemy uczenie. 

 

 

4. Algorytm Pseudolosowy Sterowany

Jest to algorytm najbardziej zbliżony swoim działaniem do najpopularniejszej metody gry jaką jest chybił-trafił.

Typowanie liczb na chybił-trafił i przy pomocy algorytmu pseudolosowego sterowanego bazuje na programach komputerowych zwanych generatorami liczb pseudolosowych.

Zaletą algorytmu pseudolosowego sterowanego jest możliwość specjalnego przeszukiwania konfiguracji generatora, tak, aby jak najlepiej dopasowywał się on do wyników wybranej gry liczbowej.

Nieco lepsze efekty uzyskano stosując dodatkowe sterowanie poprzednimi wynikami losowań, analogiczne do tego, które zastosowano w algorytmie "statystyczno wagowym”.

Pomysł na tego rodzaju system gry może wydawać się bezsensowny, jednak efekty mówią same za siebie, w szczególności jeśli chodzi o grę Multi Multi.

 

4.1 Wyszukiwanie konfiguracji

W głównym menu wyboru algorytmów typujących klikamy przycisk Pseudolosowy Sterowany. Po kliknięciu w przycisk ujrzymy panel widoczny poniżej. 

 

Następnie klikamy Przejdź do wyszukiwania ziaren, po kliknięciu w przycisk ujrzymy panel:

 

Pojedynczą konfiguracją algorytmu jest ziarno (zarodek, ang. seed). Ziarno jest niewielką ilością informacji, na podstawie, której generowany jest ciąg bitów, który pod pewnymi względami jest nieodróżnialny od ciągu uzyskanego z prawdziwie losowego źródła.

Rozpoczęcie wyszukiwania konfiguracji uruchamiamy klikając w przycisk Przeszukaj wybrany przedział. Wcześniej z rozwijanej listy wybieramy przedział ziaren generatora. W aktualnych wersjach programów przedziały zostały z góry ustalone. UWAGA! Przeszukiwanie najobszerniejszych przedziałów zajmuje około 3 do 4 godzin. Efekty pracy zapisujemy podobnie, jak w przypadku sieci neuronowych.