Jeśli
chcesz wiedzieć:
- Jak
bardzo zmiana stóp procentowych wpłynie na kurs waluty?
- O
ile więcej osób będzie wybierać transport publiczny, gdy
ceny paliwa wzrosną?
- Jak
bardzo ceny mieszkań zależą od perspektyw lokalnego rynku pracy?
zapoznaj
się z treścią niniejszej książki.
Wprowadzi
Cię ona w tę trudną i fascynującą dziedzinę wiedzy. Ekonometria jest
nauką, która pokazuje, jak używać analizy danych w celu
lepszego zrozumienia problemów ekonomicznych.
Pozwala
w dyskusjach ekonomicznych opierać się na faktach i logicznych
wnioskach.
We
"Wprowadzeniu do ekonometrii" G. Koop w przystępny i kompleksowy
sposób omawia nie tylko podstawy ekonometrii, tj. modele
regresji prostej i wielorakiej czy analizę szeregów
czasowych, lecz także tematykę bardziej zaawansowaną, tj. modele danych
panelowych, wykorzystanie metody zmiennych instrumentalnych, modeli
zmiennej jakościowej czy ekonometrii bayesowskiej.
Jest to podręcznik zarówno dla studentów
korzystających z ekonometrii wyłącznie jako narzędzia do analizy
danych, jak i dla osób specjalizujących się w tej dziedzinie.
Spis
treści:
Przedmowa
str. 10
Rozdział 1. Przegląd
podręcznika
str. 13
1.1. Znaczenie ekonometrii
str. 13
1.2. Typy danych ekonomicznych
str. 14
1.2.1. Szeregi czasowe
str. 14
1.2.2. Dane przekrojowe
str. 15
1.2.3. Dane panelowe
str. 16
1.2.4. Pozyskiwanie danych
str. 16
1.2.5. Przekształcanie danych: poziomy i stopy wzrostu
str. 17
1.3. Praca z danymi: metody graficzne
str. 19
1.3.1. Szeregi czasowe
str. 19
1.3.2. Histogramy
str. 20
1.3.3. Wykresy w układzie współrzędnych
str. 22
1.4. Praca z danymi: statystyki opisowe
str. 24
1.4.1. Wartości oczekiwane i wariancje
str. 27
1.4.2. Korelacja
str. 30
1.4.3. Korelacja w populacji i kowariancja
str. 38
1.5. Podsumowanie
str. 40
Ćwiczenia
str. 41
Rozdział 2. Nieformalne
wprowadzenie do regresji
str. 43
2.1. Wprowadzenie
str. 43
2.2. Model regresji prostej
str. 44
2.2.1. Regresja jako linia najlepszego dopasowania
str. 44
2.2.2. Interpretacja oszacowań OLS
str. 49
2.2.3. Ocena dopasowania modelu regresji
str. 50
2.2.4. Podstawowe pojęcia statystyczne w modelu regresji
str. 52
2.2.5. Weryfikacja hipotez z użyciem R2: test F
str. 55
2.3. Model regresji wielorakiej
str. 57
2.3.1. Metoda najmniejszych kwadratów w modelu regresji
wielorakiej
str. 58
2.3.2. Statystyczne aspekty w modelu regresji wielorakiej
str. 59
2.3.3. Interpretacja oszacowań współczynników w
modelu regresji wielorakiej
str. 59
2.3.4. Wybór zmiennych objaśniających w modelu regresji
wielorakiej
str. 62
2.3.5. Współliniowość
str. 65
2.3.6. Regresja wieloraka ze zmiennymi binarnymi
str. 66
2.3.7. Binarna zmienna zależna
str. 71
2.4. Podsumowanie
str. 71
Ćwiczenia
str. 73
Rozdział 3. Model
regresji prostej
str. 75
3.1. Wprowadzenie
str. 75
3.2. Przegląd podstawowych pojęć z rachunku prawdopodobieństwa w
kontekście modelu regresji
str. 76
3.3. Założenia klasycznego modelu regresji
str. 80
3.4. Własności estymatora metody najmniejszych kwadratów
parametru ß
str. 83
3.5. Konstrukcja przedziału ufności dla ß
str. 92
3.6. Weryfikowanie hipotez dla parametru ß
str. 94
3.7. Postępowanie w przypadku nieznanej wariancji ?2
str. 95
3.8. Podsumowanie
str. 98
Ćwiczenia
str. 99
Dodatek 1. Dowód Twierdzenia Gaussa-Markowa
str. 101
Dodatek 2. Asymptotyczna teoria w modelu regresji prostej
str. 103
Rozdział 4. Model
regresji wielorakiej
str. 107
4.1. Wprowadzenie
str. 107
4.2. Podstawy modelu regresji wielorakiej
str. 108
4.3. Wybór zmiennych objaśniających
str. 112
4.3.1. Obciążenia na skutek zmiennych pominiętych
str. 113
4.3.2. Włączenie do modelu nieistotnych zmiennych objaśniających
str. 115
4.3.3. Współliniowość
str. 117
4.4. Weryfikowanie hipotez w modelu regresji wielorakiej
str. 119
4.4.1. Test F
str. 119
4.4.2. Test ilorazu wiarogodności
str. 121
4.5. Wybór postaci funkcyjnej w modelu regresji wielorakiej
str. 126
4.5.1. Regresja nieliniowa
str. 126
4.5.2. Wybór modelu nieliniowego
str. 129
4.6. Podsumowanie
str. 132
Ćwiczenia
str. 133
Dodatek. Testy Walda i mnożników Lagrange'a
str. 135
Rozdział 5. Model
regresji wielorakiej: osłabienie założeń modelu klasycznego
str. 138
5.1. Wprowadzenie
str. 138
5.2. Podstawy teoretyczne
str. 139
5.3. Heteroskedastyczność
str. 141
5.3.1. Kilka rezultatów teoretycznych przy założeniu, że
ó2ů2i
str. 142
5.3.2. Heteroskedastyczność: estymacja, gdy wariancje
składników losowych są nieznane
str. 146
5.3.3. Testowanie heteroskedastyczności
str. 150
5.3.4. Zalecenia w pracy empirycznej
str. 153
5.4. Autokorelacja w modelu regresji
str. 157
5.4.1. Własności autokorelacji składnika losowego
str. 157
5.4.2. Estymator GLS w modelu regresji z autokorelacją
składników losowych
str. 161
5.4.3. Testowanie autokorelacji składnika losowego
str. 164
5.5. Metoda zmiennych instrumentalnych
str. 169
5.5.1. Przypadek 1: Zmienna objaśniająca jest zmienną losową niezależną
od składnika losowego
str. 170
5.5.2. Przypadek 2: Zmienna objaśniająca jest skorelowana ze
składnikiem losowym
str. 172
5.5.3. Dlaczego zmienne objaśniające mogą być skorelowane ze
składnikiem losowym
str. 178
5.6. Podsumowanie
str. 185
Ćwiczenia
str. 186
Dodatek. Asymptotyczna teoria w metodzie OLS i zmiennych
instrumentalnych
str. 189
Rozdział 6. Jednowymiarowa
analiza szeregów czasowych
str. 193
6.1. Wprowadzenie
str. 193
6.2. Notacja w analizie szeregów czasowych
str. 195
6.3. Trend w szeregach czasowych
str. 197
6.4. Funkcja autokorelacji
str. 200
6.5. Model autoregresji
str. 202
6.5.1. Model AR(1)
str. 202
6.5.2. Rozszerzenia modelu AR(1)
str. 206
6.5.3. Testowanie AR(p) z trendem deterministycznym
str. 210
6.6. Stacjonarność
str. 218
6.7. Modelowanie zmienności
str. 220
6.7.1. Zmienność cen aktywów: wprowadzenie
str. 220
6.7.2. Autoregresyjna warunkowa heteroskedastyczność (ARCH)
str. 225
6.8. Podsumowanie
str. 229
Ćwiczenia
str. 231
Dodatek. Modele MA i ARMA
str. 234
Rozdział 7. Szeregi
czasowe i regresja
str. 237
7.1. Wprowadzenie
str. 237
7.2. Regresja, w przypadku gdy X i Y są stacjonarnymi szeregami
czasowymi
str. 238
7.3. Regresja, w przypadku gdy X i Y zawierają pierwiastek jednostkowy
str. 242
7.3.1. Regresja pozorna
str. 242
7.3.2. Kointegracja
str. 242
7.3.3. Zmienne skointegrowane: estymacja i weryfikacja
str. 245
7.3.4. Regresja, gdy Y i X są skointegrowane: model korekty błędem
str. 249
7.4. Regresja, w przypadku gdy szeregi Y i X zawierają pierwiastek
jednostkowy, ale NIE są skointegrowane
str. 253
7.5. Przyczynowość w sensie Grangera
str. 254
7.5.1. Przyczynowość w sensie Grangera w modelu ADL
str. 255
7.5.2. Przyczynowość w sensie Grangera zmiennych skointegrowanych
str. 260
7.6. Model autoregresji wektorowej
str. 260
7.6.1. Prognozowanie w modelu VAR
str. 267
7.6.2. Autoregresja wektorowa zmiennych skointegrowanych
str. 270
7.6.3. Zastosowania modeli VAR: funkcje odpowiedzi na impuls i
dekompozycje wariancji
str. 273
7.7. Podsumowanie
str. 276
Ćwiczenia
str. 277
Dodatek. Teoria prognozowania
str. 281
Rozdział 8. Modele
dla danych panelowych
str. 284
8.1. Wprowadzenie
str. 284
8.2. Model uogólniony
str. 285
8.3. Modele z efektami jednostkowymi
str. 285
8.3.1. Model z efektami ustalonymi
str. 289
8.3.2. Model z efektami losowymi
str. 292
8.3.3. Rozszerzenia modeli z efektami jednostkowymi
str. 299
8.4. Podsumowanie
str. 301
Ćwiczenia
str. 302
Rozdział 9. Modele
zmiennych jakościowej i uciętej
str. 306
9.1. Wprowadzenie
str. 306
9.2. Modele zmiennej jakościowej
str. 307
9.2.1. Modele zmiennej dyskretnej
str. 307
9.2.2. Modele wielomianowe
str. 316
9.3. Modele zmiennej uciętej
str. 327
9.3.1. Model tobitowy
str. 327
9.3.2. Zmienne całkowitoliczbowe
str. 330
9.3.3. Rozszerzenia
str. 335
9.4. Podsumowanie
str. 336
Ćwiczenia
str. 338
Rozdział 10. Ekonometria
bayesowska
str. 341
10.1. Przegląd ekonometrii bayesowskiej
str. 341
10.2. Liniowy model regresji z naturalnie sprzężonym rozkładem a priori
i pojedynczą zmienną objaśniającą
str. 348
10.2.1. Funkcja wiarogodności
str. 348
10.2.2. Rozkład a priori
str. 349
10.2.3. Rozkład a posteriori
str. 350
10.2.4. Porównanie modeli w kontekście modelu regresji
prostej
str. 354
10.3. Podsumowanie
str. 359
Ćwiczenia
str. 359
Dodatek. Analiza bayesowska modelu regresji prostej z nieznaną wariancją
str. 361
Dodatek A. Podstawy matematyki
str. 366
Dodatek B. Podstawy rachunku prawdopodobieństwa
str. 371
Dodatek C. Podstawowe pojęcia z zakresu asymptotycznej teorii
str. 382
Dodatek D. Tworzenie projektu empirycznego
str. 387
Tablice statystyczne
str. 393
Tabela 1. Obszar pod krzywą gęstości rozkładu normalnego standardowego
Pr(0 < Z < z)
str. 393
Tabela 2. Obszar pod krzywą gęstości rozkładu t-Studenta dla
różnych stopni swobody i Pr(Z > z) = ?
str. 394
Tabela 3. Percentyle rozkładu chi-kwadrat
str. 395
Tabela 4a. Obszar pod krzywą gęstości rozkładu F dla różnych
stopni swobody v1 i v2 Pr (Z > z) = 0,05
str. 396
Tabela 4b. Obszar pod krzywą gęstości rozkładu F dla różnych
stopni swobody v1 i v2, Pr(Z > z) = 0,01
str. 397
Bibliografia
str. 399
Indeks
str. 400
408
stron, B5, oprawa miękka