Asymptotyczne tempo wzrostu
Z Wikipedii
Zasugerowano, aby artykuł O małe zintegrować z tym artykułem lub sekcją. (dyskusja) |
Asymptotyczne tempo wzrostu jest miarą określającą zachowanie wartości funkcji wraz ze wzrostem jej argumentów. Stosowane jest szczególnie często w teorii obliczeń, w celu opisu złożoności obliczeniowej, czyli zależności ilości potrzebnych zasobów (np. czasu lub pamięci) od rozmiaru danych wejściowych algorytmu. Asymptotyczne tempo wzrostu opisuje jak szybko dana funkcja rośnie lub maleje, abstrahując od konkretnej postaci tych zmian.
Do opisu asymptotycznego tempa wzrostu stosuje się notację dużego O (zwaną też notacją Landaua od nazwiska niemieckiego teoretyka liczb Edmunda Landaua, który ją spopularyzował), oraz jej modyfikacje, m.in. notacja Ω (duża omega), Θ (theta).
Spis treści |
[edytuj] Definicje analityczne
Zasugerowano, aby sekcja [[:Asymptotyczne tempo wzrostu#Zależności algebraiczne O, o, Ω, ω, Θ|Zależności algebraiczne O, o, Ω, ω, Θ]] z artykułu Asymptotyczne tempo wzrostu została zintegrowana z tym artykułem lub sekcją. (dyskusja) |
Niech będą dane funkcje f oraz g, których dziedziną jest zbiór liczb naturalnych, natomiast przeciwdziedziną zbiór liczb rzeczywistych dodatnich.
[edytuj] Notacja "duże O"
Mówimy, że f jest co najwyżej rzędu g, gdy istnieją takie stałe n0 > 0, oraz c > 0, że:
Zapis: f(n) = O(g(n))
Określenia "złożoność co najwyżej O(f(n))" i "złożoność O(f(n))" są matematycznie równoważne.
Wersja notacji dla zachowania się funkcji w pobliżu punktu :
, jeżeli istnieje takie i takie , że dla dowolnych takich, że zachodzi nierówność
Należy zauważyć, że nie precyzuje się tu dziedziny funkcji i – zależy ona od kontekstu w jakim występują obie funkcje.
[edytuj] Notacja "małe o"
Mówimy, że f jest niższego rzędu niż g, gdy dla każdej stałej c > 0 istnieje stała n0 > 0, że:
Zapis: f(n) = o(g(n))
[edytuj] Notacja "Ω"
Mówimy, że f jest co najmniej rzędu g, gdy istnieją takie stałe n0 > 0, oraz c > 0, że:
Zapis: f(n) = Ω(g(n))
[edytuj] Notacja "ω"
Mówimy, że f jest wyższego rzędu niż g, gdy dla każdej stałej c > 0 istnieje stała n0 > 0, że:
Zapis: f(n) = ω(g(n))
[edytuj] Notacja "Θ"
Mówimy, że f jest dokładnie rzędu g, gdy istnieją takie stałe n0 > 0, oraz c1 > 0 i c2 > 0, że:
Zapis: f(n) = Θ(g(n))
Można powiedzieć, że f(n) = Θ(g(n)), gdy f(n) jest jednocześnie rzędu O(g(n)) i Ω(g(n)).
[edytuj] Uwagi
Znak "=" nie oznacza tutaj równości, jest on zdefiniowany przez podane wyżej określenia. Notacja dużego O pozwala wykonywać działania na funkcjach, na przykład:
- jeśli f(x) = O(r(x)) i g(x) = O(r(x)), to również .
- przy założeniach jak poprzednio,
Wygoda notacji dużego O widoczna jest w następującej sytuacji: jeżeli f(x) = 2x3 − x2 + 100x, to można napisać zarówno f(x) = O(x3), jak i f(x) = 2x3 + O(x2), czy wreszcie f(x) = 2x3 − x2 + O(x), zależnie od wymaganej dokładności oszacowań.
Napis należy rozumieć jako .
[edytuj] Zależności algebraiczne O, o, Ω, ω, Θ
Ten artykuł wymaga dopracowania zgodnie z zaleceniami edycyjnymi. Należy w nim poprawić: ta tabela jest troszkę myląca - kolumna określana jako definicja NIE daje definicji ale warunki wystarczające tylko (granice w tej kolumnie nie muszą istnieć a warunki po lewej będą spełnione i tak) O co więc tu chodzi? I po co?. Dokładniejsze informacje o tym, co należy poprawić, być może znajdziesz na stronie dyskusji tego artykułu. Po naprawieniu wszystkich błędów można usunąć tę wiadomość. |
Notacja | Definicja |
---|---|
[edytuj] Przykłady
- Jeżeli f(x) = 1000x50 + 2x2 oraz g(x) = 0,0000001x50 + 665x, to oraz , ale również .
- Niech . Korzystając ze wzorów sumacyjnych: , a zatem .
- Jeżeli potrzebne jest dokładniejsze oszacowanie , to na podstawie tego samego wzoru sumacyjnego można napisać .
- Analogicznie można napisać, że .
[edytuj] Standardowe oszacowania
W zastosowaniach szczególnie często notacja O-duże pojawia się w następujących sytuacjach:
- – funkcja f(x) jest ograniczona
- – funkcja f(x) jest ograniczona przez funkcję logarytmiczną
- – funkcja f(x) jest ograniczona przez funkcję liniową
- – funkcja f(x) jest ograniczona przez funkcję potęgową lub wielomian
- – funkcja f(x) jest ograniczona przez funkcję wykładniczą
- – funkcja f(x) jest ograniczona przez silnię
[edytuj] Rząd złożoności obliczeniowej
W zależności od asymptotycznego tempa wzrostu, funkcje dzieli się na rzędy złożoności obliczeniowej. Najczęściej wyróżnia się:
1 | stała |
log2n | logarytmiczna |
n | liniowa |
nlog2n | liniowo-logarytmiczna (lub quasi-liniowa) |
n2 | kwadratowa |
nc | wielomianowa |
cn | wykładnicza |
[edytuj] Zastosowanie
Najczęstszym zastosowaniem asymptotycznego tempa wzrostu jest szacowanie złożoności problemów obliczeniowych, w szczególności algorytmów. Oszacowanie rzędów złożoności obliczeniowej funkcji pozwala na porównywanie ilości zasobów (np. czasu, pamięci), jakich wymagają do rozwiązania problemu opisanego określoną ilością danych wejściowych. W dużym uproszczeniu można powiedzieć, że im niższy rząd złożoności obliczeniowej algorytmu, tym będzie on wydajniejszy.
W praktyce na efektywność algorytmu wpływa duża ilość innych czynników, w tym szczegóły realizacji. Ponadto dla małych danych wejściowych asymptotyczne tempo wzrostu może nie oddawać zachowania funkcji - np. gdy (funkcja liniowa Θ(n)) i g(n) = logn (funkcja logarytmiczna Θ(logn)), zachodzi oszacowanie f(n) = ω(g(n)) (f(n) asymptotycznie rośnie szybciej niż g(x)), ale dla n = 10 wartość funkcji f jest mniejsza niż funkcji g.