Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla...

57
Adam Tarnowski Metodologia badań psychologicznych 1 Dr Adam Tarnowski Metodologia badań psychologicznych. Liczba zapożyczeń i cytatów w poniższym tekście jest tak duża, że trudno byłoby nawet w przybliżeniu stwierdzić, którym osobom co konkretnie autor zawdzięcza. Wymienię więc tylko w porządku alfabetycznym tych, z którymi zetknąłem się bezpośrednio, bądź słuchając ich wykładów, prowadząc seminaria według ich programu, korzystając z ich niepublikowanych opracowań, bądź też uwag w rozmowach prywatnych i konsultacjach własnych badań. Prof. Elżbieta Aranowska Prof. Andrzej Góralski Dr hab. Maciej Haman Prof. Józef Kozielecki Prof. Tytus Sosnowski Specjalne podziękowanie muszę zamieścić również dla Małgorzaty Wołejko (której zawdzięczam wiedzę o m.in. o badaniach internetowych) Wiadomości z niniejszego skryptu warto uzupełnić o następujące lektury: Obowiązkowa: Bogdan Wojciszke (2004) "Systematycznie modyfikowane autoreplikacje: logika programu badań empirycznych w psychologii".(w:) J. Brzeziński (red.) Metodologia badań psychologicznych. Wybór tekstów. Warszawa: PWN Uzupełniająca: Brzeziński,J. (1997) Metodologia badań psychologicznych, Warszawa: PWN Choynowski, M., (1971) Pomiar w psychologii (w) Kozielecki J., (red.) Problemy psychologii matematycznej, Warszawa: PWN Carnap, R. (2000) Wprowadzenie do filozofii nauki Warszawa: Aletheia Hempel, C.G. (2001) Filozofia nauk przyrodniczych. Warszawa: Aletheia King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu oraz artykuł Wojciszke. Spis treści Wykład 1. Czym jest nauka. 3 1.1. Psychologia jako pole badań empirycznych. 4 1.2. Definicja wiedzy naukowej. 5 1.3. Wiedza zdroworozsądkowa 9 Wykład 2. Prawdziwość wiedzy naukowej. 10 2.1. Zagadnienie prawdziwości wiedzy. 10 2.2. Prawdziwość pojęć 10 2.3. Prawdziwość twierdzeń 11 2.4. Prawdziwość teorii 11

Transcript of Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla...

Page 1: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 1

Dr Adam Tarnowski

Metodologia badań psychologicznych.

Liczba zapożyczeń i cytatów w poniższym tekście jest tak duża, że trudno byłoby nawet w przybliżeniu stwierdzić, którym osobom co konkretnie autor zawdzięcza. Wymienię więc tylko w porządku alfabetycznym tych, z którymi zetknąłem się bezpośrednio, bądź słuchając ich wykładów, prowadząc seminaria według ich programu, korzystając z ich niepublikowanych opracowań, bądź też uwag w rozmowach prywatnych i konsultacjach własnych badań.

Prof. Elżbieta Aranowska

Prof. Andrzej Góralski

Dr hab. Maciej Haman

Prof. Józef Kozielecki

Prof. Tytus Sosnowski

Specjalne podziękowanie muszę zamieścić również dla Małgorzaty Wołejko (której zawdzięczam wiedzę o m.in. o badaniach internetowych)

Wiadomości z niniejszego skryptu warto uzupełnić o następujące lektury:

• Obowiązkowa:

– Bogdan Wojciszke (2004) "Systematycznie modyfikowane autoreplikacje: logika programu badań empirycznych w psychologii".(w:) J. Brzeziński (red.) Metodologia badań psychologicznych. Wybór tekstów. Warszawa: PWN

• Uzupełniająca:

– Brzeziński,J. (1997) Metodologia badań psychologicznych, Warszawa: PWN

– Choynowski, M., (1971) Pomiar w psychologii (w) Kozielecki J., (red.) Problemy psychologii matematycznej, Warszawa: PWN

– Carnap, R. (2000) Wprowadzenie do filozofii nauki Warszawa: Aletheia

– Hempel, C.G. (2001) Filozofia nauk przyrodniczych. Warszawa: Aletheia

– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN

Egzamin testowy będzie obejmował treść wykładu oraz artykuł Wojciszke.

Spis treści

Wykład 1. Czym jest nauka. 3

1.1. Psychologia jako pole badań empirycznych. 4

1.2. Definicja wiedzy naukowej. 5

1.3. Wiedza zdroworozsądkowa 9

Wykład 2. Prawdziwość wiedzy naukowej. 10

2.1. Zagadnienie prawdziwości wiedzy. 10

2.2. Prawdziwość pojęć 10

2.3. Prawdziwość twierdzeń 11

2.4. Prawdziwość teorii 11

Page 2: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 2

Wykład 3. Uwagi o języku naukowym 13

3.1. Nazwy. 13

3.2. Problem nadznaczenia. 14

3.3. Zdanie w sensie logicznym 14

3.4. Trzy światy Poppera 7

Wykład 4. Elementy logiki. Definicje. 16

4.1. Logika 16

4.2. Definicje 17

4.3. Błędy definicji. 18

Wykład 5. Model badania naukowego. 20

5.1. Model hipotetyczno-dedukcyjny. 20

5.2. Cechy dobrej teorii 21

5.3. Etapy badania naukowego. 22

Wykład 6. Zmienne w badaniach psychologicznych 25

6.1. Klasyfikacja zmiennych 25

6.2. Typy problemów badawczych i rodzaje zależności. 27

6.3. Zmienne uboczne: moderatory i mediatory 28

Wykład 7. Hipotezy i operacjonalizacja zmiennych. 30

7.1. Hipotezy 30

7.1.1. Warunki poprawności hipotez 30

7.1.2. Czy zawsze hipotezy są niezbędne w weryfikacji teorii? 31

7.2. Wskaźniki. 31

7.2.1. Klasyfikacja wskaźników 31

7.2.2. Moc rozdzielcza wskaźników 32

Wykład 8. Pomiar w psychologii- elementy psychometrii. 36

8.1. Struktura operacjonalizacji zmiennych psychologicznych. 36

8.2. Definicja pomiaru 36

8.3. Typy skal pomiarowych 37

8.4. Elementy teorii testów psychologicznych 37

Wykład 9. Trafność testów psychologicznych 39

9.1. Czym jest cecha psychiczna i kiedy można orzec że ona istnieje? 39

9.2. Rodzaje trafności 40

9.3. Metody oceny trafności testu 41

9.4. Model trafności Messicka: 42

9.5. Inne metody pomiaru w psychologii 43

Page 3: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 3

9.5.1. Wskaźniki chronometryczne 43

9.5.2. Neuroobrazowanie 43

Wykład 10. Wprowadzenie do metod statystycznych w psychologii 44

10.1. Dlaczego statystyka? 44

10.2. Pojęcie wariancji 44

10.3. Uncertainty management-czy zawsze rozwój nauki polega na eliminacji

wariancji? 45

10.4. Wnioskowanie statystyczne. 46

10.5. Wielkość próby 47

10.6. Problem reprezentatywności próby. 47

Wykład 11. Planowanie Eksperymentów 49

11.1. Przykład 49

11.2. Badanie korelacyjne. 49

11.3. Badanie quasi-eksperymentalne 49

11.4. Badanie eksperymentalne 50

11.5. Czynniki zakłócające trafność wewnętrzną. 50

Wykład 12. Trafność zewnętrzna planów eksperymentalnych i alternatywne

schematy badawcze 52

12.1. Trafność zewnętrzna eksperymentu 52

12.2. Alternatywne schematy (plany) eksperymentalne 52

12.3. Metody kontroli zmiennych ubocznych 54

12.4. Źródła artefaktów 54

Wykład 13. Procedura Ex post facto (EPF) 56

Wykład 14. Etyka badań naukowych 57

Wykład 1. Czym jest nauka.

Rzetelność naukowa nie jest, jak mogłoby się wydawać, sprawą wyłącznie

warsztatu stosunkowo nielicznej grupy, jaką stanowią aktywni naukowcy, prowadzący

samodzielne badania. Dzieje się tak z kilku powodów.

Po pierwsze, każdy człowiek jest odbiorcą pewnej wiedzy gromadzonej w sposób

mniej lub bardziej naukowy. Aby nie ulegać mechanicznie argumentom typu "jak

dowodzą badania naukowe" lub "jak wynika z testów klinicznych"(zwłaszcza ten ostatni

slogan oznacza zresztą najczęściej niezbyt systematyczne gromadzenie danych) musimy

znać przynajmniej podstawy prowadzenia takich badań. Z badań naukowych (konkretnie

empirycznych badań społecznych) korzystamy również, gdy chcemy zaspokoić swoją

ciekawość czytając w gazecie wyniki różnych ankiet czy sondaży przedwyborczych. Po

Page 4: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 4

drugie korzystanie z badań naukowych dla wielu z nas nie ogranicza się do biernej

recepcji. Przeprowadzenie samodzielnych badań jest warunkiem uzyskania stopnia

magistra, niekiedy też z przyczyn zawodowych prowadzimy lub zlecamy badania

marketingowe lub sondaże.

Studia psychologiczne są obowiązkowo pięcioletnie. Oznacza to że każdy kto chce

zostać psychologiem powinien „dołożyć” fragment do ogólnego potencjału wiedzy w tej

dyscyplinie. Nie chodzi przy tym jedynie o rozwój wiedzy. Wiedza psychologiczna ma

wciąż „miękki” charakter. Użytkownik tej wiedzy powinien być w pełni świadomy

ograniczeń- probabilistycznego, a nie deterministycznego charakteru twierdzeń,

problemów z nieścisłością wskaźników i definicji, itd., itd... Generalnie, metodologia- i

uczestnictwo w tworzeniu psychologii jako nauki- powinno nauczyć nas krytycyzmu,

odróżniania twierdzeń ustalonych z dużym stopniem pewności i względnie uniwersalnych

od tych, które stanowić mogą jedynie źródło hipotez i inspirację do szukania własnych

rozwiązań problemu.

Obowiązek rzetelności naukowej spoczywa (naturalnie proporcjonalnie do

posiadanych możliwości) nie tylko na osobie prowadzącej badania, ale także na tych,

którzy wiedzę przyjmują.

Zawód psychologa polega na rozumieniu ludzi, opisywaniu i przewidywaniu ich

zachowania, oraz udzielania im pomocy. Do tych celów konieczny jest prawidłowy aparat

pojęciowy i znajomość pewnych zasad. Nie można jednak bezkrytycznie przyjmować ani

tych pojęć, ani też tych zasad. Jednym z największych osiągnięć filozofii nauki jest

świadomość granic- każde twierdzenie naukowe prawdziwe jest tylko w pewnym

zakresie. Jednym z głównych zadań niniejszego skryptu jest pokazanie, jak te granice

wytyczać.

1.1. Psychologia jako pole badań empirycznych.

Pojęcie "nauki społeczne" obejmuje niezwykle szerokie spektrum wiedzy o

człowieku i jego działaniu. Zaliczane do nauk społecznych są psychologia (zwłaszcza

psychologia społeczna, będąca nauką o funkcjonowaniu człowieka jako członka różnych

grup), socjologia (stanowiąca gałąź wiedzy o grupach ludzi i procesach w nich

zachodzących), nauki ekonomiczne, politologia, medycyna (w szczególności

epidemiologia, psychiatria społeczna) czy też prawo. Każda z wymienionych nauk

posiada swój odrębny przedmiot i swoje metody.

Psychologia nie jest jedynie nauką społeczną. Wiele z jej poddyscyplin pokrywa się

w części zakresem i metodami z naukami biologicznymi (neurobiologia, neurofizjologia,

etologia), formalnymi (modelowanie matematyczne, sztuczne sieci neuronowe) czy wręcz

technicznymi (ergonomia). Ostatnich kilkanaście lat przyniosło burzliwy rozwój

interdyscyplinarnych gałęzi wiedzy- nauk o poznaniu (cognitive science), nauk o systemie

nerwowym (neurosciences).

Nauki szczegółowe zatem badają pewien wycinek rzeczywistości. Wycinek ten to z

jednej strony określony przedmiot, dziedzina badań (mówimy tu o redukcji tematycznej w

obrębie danej dyscypliny) oraz specyficzna metoda badań (nazywamy to abstrakcją

metodyczną).

Od razu więc warto stwierdzić, że przedmiotem rozważań będzie wyłącznie

metodologia badań empirycznych. Poza naszymi zainteresowaniami znajdzie się zatem

wiele nauk wykorzystujących zupełnie inną metodologię.

Page 5: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 5

Weizacker pisze: Stosunek filozofii do tak zwanej nauki pozytywnej można sprowadzić do

następującej formuły: Filozofia stawia takie pytania, jakich niepostawienie było

warunkiem sukcesu metody naukowej. Zawiera się w tym więc twierdzenie, że nauka

zawdzięcza swój sukces między innymi rezygnacji ze stawiania pewnych pytań.(za:

Anzenbacher 1987)

Metodologia ogólna uczy nas, że nauki podzielić można na indukcyjne i dedukcyjne.

Nauki dedukcyjne konstruują swój system wiedzy wychodząc z określonych założeń, ich

rozwój zaś polega na wyciąganiu szczegółowych konsekwencji. Naturalnie badane są

różne systemy założeń i pojęć pierwotnych. Do takich nauk zaliczyć można matematykę,

filozofię, prawo. Nauki indukcyjne funkcjonują odwrotnie- starają się gromadzić

obserwacje jednostkowych faktów i na ich podstawie formułować prawa ogólne.

Jeżeli zatem rozważania ograniczymy do metodologii badań empirycznych, poza naszymi

zainteresowaniami znajdzie się cała grupa nauk dedukcyjnych. Ale nie tylko- również w

obrębie tych nauk, które tradycyjnie deklarują się jako indukcyjne i empiryczne, jak

choćby psychologia, wiele cennych odkryć zostało dokonanych z pominięciem reguł, o

których mowa będzie w tym opracowaniu. Problemy te będą jeszcze dyskutowane przy

omawianiu szczegółowych zagadnień.

Rozdzielenie nauk dedukcyjnych i indukcyjnych jest nieco sztuczne- matematyka

używa elementów indukcji, zaś nauki empiryczne bez dedukcji sprowadzały by się do

katalogowania faktów.

Wygodniej więc będzie przyjmować podział zaproponowany przez Hempla: na

nauki empiryczne i nieempiryczne. Wśród nauk empirycznych wyróżnić można nauki

społeczne i przyrodnicze.

Arystoteles dzielił nauki na matematykę (zajmującą się tym co jest nieruchome i nie

istnieje osobno) fizykę (to co ruchome i istniejące osobno) oraz metafizykę (obejmuje to

co nieruchome i istniejące osobno). Dziś ten podział ma charakter historyczny- niemniej

warto zwrócić uwagę na celną obserwację: nauki formalne (nieempiryczne) zajmują się

opisem cech stałych i ogólnych. Nauki empiryczne zajmują się „tym co ruchome”-

zmiennością zjawisk.

Ciekawy test na temat filozoficznych podstaw wiedzy psychologicznej:

http://www.comnet.ca/~pballan/Appendix1.htm

1.2. Definicja wiedzy naukowej.

Podstawowym, choć jak się dalej okaże nieco sztucznym podziałem jest

rozróżnienie wiedzy naukowej i wiedzy potocznej. Nie każda wiedza, określana jako

naukowa spełniała jej dzisiejsze kryteria. Kasta kapłanów-mędrców stanowiła pierwszą

społeczność, która gromadziła wiedzę w sposób systematyczny. Metodologia ówczesna

bywa nazywana empiryczną- oparta jest na metodzie prób i błędów, prostego

gromadzenia faktów. Przewidywanie nie opierało się na prawach przyczynowo-

skutkowych, lecz na prostej zasadzie, iż po podobnych zjawiskach następować będą

podobne następstwa. Astronomia egipska opierała się na żmudnym zbieraniu informacji-

co tydzień na dachu świątyni siadało dwóch kapłanów twarzami do siebie i rysowało co

widać- łącznie z drugim kapłanem. Takie informacje systematycznie gromadzono przez

tysiące lat. Tak więc nie tylko przedsięwzięcia budowlane, lecz również „naukowe” z

tamtych czasów były możliwe dzięki wytrwałości wielu pokoleń.

Page 6: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 6

Z Egiptu wywodzi się pierwsze dzieło metodologiczne, opisujące sposób zapisu

liczb. Autorem jego jest Ahmes, zaś skromny tytuł Reguły badania wszystkich rzeczy i

poznania wszystkiego, co istnieje, każdej ukrytej tajemnicy świadczy, iż już wówczas za

dominującą cechę wiedzy naukowej uważano możliwość jej matematycznej formalizacji.

W świetle współczesnych poglądów wiedza, aby została uznana za naukową spełniać

musi kilka kryteriów. Do najważniejszych z nich zaliczyć wypada sprawdzalność,

obiektywizm, ścisłość języka.

Sprawdzalność. Każde stwierdzenie, jeżeli chce pretendować do miana naukowego

powinno być sprawdzalne. Popper postulował, aby kryterium tego co naukowe była

potencjalna możliwość falsyfikacji teorii. Zamiast pytać „jakie są argumenty świadczące o

prawdziwości teorii X” zastanawiał się „jakie warunki musiały by zostać spełnione aby

teorię X odrzucić”. Jeśli teoria jest zawsze w każdych warunkach prawdziwa- nie jest

teorią naukową na gruncie nauk empirycznych.

Obiektywizm. Warunek ten oznacza, że badacz powinien prowadzić badania w sposób

nietendencyjny, nie starając się udowodnić na siłę swoich hipotez. Badanie powinno być

opisane w taki sposób, aby każdy mógł je powtórzyć, i sprawdzić w ten sposób uzyskane

rezultaty. Doświadczenie uczy jednak, że warunek ten nie jest łatwy do spełnienia. Często

badacze przejawiają wobec sformułowanych przez siebie hipotez "ojcowski afekt". Jeżeli

hipoteza nie potwierdza się, starają się zmienić metody analizy danych lub zwalają winę

na warunki badania, dobór grupy itp. Najczęściej, o ile samo badanie przeprowadzone

zostało prawidłowo rzetelna interpretacja jego wyników może być cenna dla nauki,

niezależnie od tego, czy potwierdziła się teoria autora badań, czy też nie.

Każdy wynik eksperymentu czy obserwacji powinien dać się powtórzyć w podobnych

warunkach. Nakłada to na badacza obowiązek z jednej strony przestrzegania ogólnych

reguł postępowania, z drugiej zaś przedstawiania możliwie pełnej dokumentacji

prowadzonych badań, tak aby każdy, komu wyniki wydadzą się wątpliwe, mógł

eksperyment powtórzyć. Oczywiście spełnienie tego warunku nie zawsze jest możliwe.

Nawet w dziedzinie tak ścisłej jak astronomia naukowcy często zdobywają wiedzę

obserwując zjawiska unikalne, które zdarzą się powtórnie dopiero za wiele lat. Również

na obszarze nauk społecznych spełnienie kryterium powtarzalności jest często trudne.

Jeżeli badania np. prowadzone są w ekstremalnych warunkach, narażających na szwank

zdrowie, czy choćby psychikę uczestników (por. eksperymenty w psychologii społecznej)

powtórzenie wyników jest często niemożliwe. Nawiasem mówiąc ograniczenia etyczne

stanowią często największe ograniczenie dla ścisłości badań w naukach społecznych.

Wielu naukowców za nic nie przyzna się jednak, że zaniechało badania jakiegoś zjawiska

z tak "pozamerytorycznego" powodu.

Jak trudno jest obiektywnie przeprowadzić badanie wykazano na jednym z

uniwersytetów amerykańskich, polecając dwóm grupom studentów przeprowadzić

samodzielnie proste badanie ankietowe. Jedna z grup została poinformowana, że ich praca

służyć będzie rozwiązaniu niezwykle istotnego problemu badawczego, drugiej grupie zaś

te samo badanie przedstawiono jako ćwiczenie praktycznych umiejętności badawczych,

bez konkretnego zastosowania. W rzeczywistości wszyscy studenci prowadzili to samo

badanie, w którym hipotezy były fałszywe. Mimo, że obie grupy miały prowadzić swoje

badania obiektywnie i według tych samych reguł, grupa "zaangażowana" otrzymała

wyniki potwierdzające postawioną (fałszywą) hipotezę. Rezultat taki świadczy o trudności

Page 7: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 7

w zachowaniu rzeczywistego obiektywizmu w trakcie prowadzenia badań.

Ścisłość języka naukowego oznacza dbałość o precyzję wypowiedzi i obowiązek

podawania dokładnych definicji wprowadzanych przez siebie pojęć. Pojęcia naukowe

winny posiadać sens empiryczny, tzn. dla każdego teoretycznie opisywanego zjawiska

należy określić wskaźniki- zjawiska obserwowalne.

1.3. Trzy światy Poppera

"... świat składa się przynajmniej z trzech ontologicznie różnych podświatów, lub też,

inaczej mówiąc [...] istnieją trzy światy: pierwszy jest światem fizycznym, światem stanów

fizycznych; drugi jest światem duchowym lub światem stanów umysłowych, trzeci zaś jest

światem intelligibiliów lub idei w obiektywnym sensie, jest to świat możliwych przedmiotów

myśli: świat teorii samych w sobie, ich relacji logicznych, argumentów i sytuacji

problemowych samych w sobie."( K. Popper (1992) Wiedza obiektywna. Ewolucyjna teoria

epistemologiczna, Warszawa: PWN 1992,s. 209)

Problem obiektywizmu pojawia się wraz z koniecznością porozumienia się z innymi.

Świat fizyczny odzwierciedlany jest w subiektywnym świecie doznań psychicznych każdego

człowieka. Część tego świata subiektywnego potrafimy jednak przekazywać sobie nawzajem

– i to, co możemy sobie przekazać tworzy świat intersubiektywny.

Warto w tym miejscu zasygnalizować dwa prądy w teorii nauki, powstałe wskutek

dążenia do maksymalnej ścisłości języka. Pierwszy z nich, zwany operacjonalizmem

postulował wyrażanie wszystkich pojęć wyłącznie w terminach zjawisk obserwowalnych.

Pojęcia teoretyczne, o ile w ogóle dopuszczane, traktowane były wyłącznie jako źródło

pomysłów do przewidywania nowych faktów. Popularnym argumentem był tzw. dylemat

teoretyka, sformułowany przez Hempla- "jeżeli pojęcia teoretyczne nie prowadzą do

ustalenia nowych faktów empirycznych- są fałszywe, jeżeli natomiast uda się odkryć

Page 8: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 8

nowe fakty- stają się zbędne". W skrajnej formie (Bridgman) kierunek ten postulował

definiowanie pojęć przez wskazanie odpowiednich operacji testujących. Nowa metoda

pomiaru wymagała wprowadzenia nowego pojęcia. Polemizując ze stanowiskiem

operacjonalistów stwierdzić można, że w naukach empirycznych, zwłaszcza zaś

społecznych, gdzie istnieje ogromna różnorodność narzędzi badawczych sprowadzenie

wszystkich pojęć teoretycznych do obserwowalnych nastręcza duże trudności. Minimalna

modyfikacja narzędzia badawczego powodowała by zatem konieczność znacznego

przeformułowania teorii, a nawet potrzebę powtórnej weryfikacji uzyskanych wcześniej

rezultatów. Dwaj socjologowie badając pokrewną problematykę dwoma różnymi

ankietami nie mieli by możliwości znalezienia wspólnego języka. Eliminacja z języka

naukowego pojęć nieobserwowalnych stanowiła by dużą komplikację, i na pewno nie

zwiększyła by jego jasności- spróbujmy przeformułować ściśle operacyjnie twierdzenie

„agresja jest wynikiem frustracji”. Można stwierdzić, że operacjoniści dążąc do ścisłości

języka nauki nie docenili znaczenia jego funkcji systematyzacyjnej. Mnożenie pojęć

uniemożliwiłoby w praktyce stworzenie systematycznego obrazu rzeczywistości.

Operacjonalizm miał na celu ograniczenie spekulatywności i niejasności nauk

społecznych na początku XX wieku. W chwili obecnej postulat ten nie jest już w pełni

aktualny. Rozwój metodologii nauk społecznych pozwala już (przynajmniej w odczuciu

autora tego opracowania) na posługiwanie się również konstruktami- pojęciami czysto

teoretycznymi.

Niemniej jednak prowadząc badania empiryczne musimy umieć powiązać terminy

teoretyczne i obserwowalne- będzie o tym mowa w części poświęconej operacjonalizacji

zmiennych.

Drugi kierunek, redukcjonizm, postulował istnienie w nauce (w nauce w ogóle lub

przynajmniej w obrębie jednej gałęzi wiedzy) podstawowego systemu pojęć pierwotnych,

do którego można by sprowadzić wszystkie pozostałe terminy. Naturalnie w naukach o

charakterze dedukcyjnym jest to postulat realizowany- istnieje zestaw pojęć pierwotnych

dla np. geometrii, w dużej mierze starają się go dopracować filozofowie- przynajmniej w

obrębie poszczególnych szkół. W naukach społecznych zadanie jest jednak znacznie

trudniejsze. Mimo podejmowanych prób sprowadzania pojęć związanych z

funkcjonowaniem człowieka do terminów neurofizjologicznych lub też behawioralnych,

nie udało się dotąd stworzyć zadowalającego systemu takich definicji. Jak się wydaje,

musiałby on być bardzo złożony, ponadto raczej hamował by rozwój wiedzy niż

prowadził do nowych odkryć. Niemniej warto pamiętać, że definicje nowych pojęć

powinny jak najściślej wiązać je z już funkcjonującym systemem wiedzy w danej gałęzi

nauki.

Warto zauważyć, że definicja każdego pojęcia winna podawać jego „treść istotną”,

to co z punktu widzenia dyscypliny naukowej jest ważne, i w obrębie tej dyscypliny

pozwala na optymalne formułowanie hipotez i praw. Sformułowanie pojęcia pamięci w

terminach biochemicznych prawdopodobnie nie byłoby użyteczne w obrębie psychologii

wychowawczej (choć naturalnie korzysta ona m.in. z odkryć biochemików).

Antropologiczna definicja człowieka (istota o zwartym parabolicznym łuku zębodołowym)

nie przyda się w psychologii, i odwrotnie. Podobni pojęcie świadomości określonej za

pośrednictwem objętości mózgu w psychologii będzie bezużyteczne.

Wśród teorii analizujących status pojęć teoretycznych warto wspomnieć również realizm.

Przyznaje on pojęciom teoretycznym status równoważny terminom obserwacyjnym.

Mogą one zatem również być prawdziwe albo fałszywe, stanowią naukowy, przybliżony

opis rzeczywistości. Według celnej metafory K. Poppera "teorie są sieciami,

chwytającymi to, co nazywamy światem; służą do racjonalnego ujmowania, wyjaśniania i

Page 9: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 9

opanowywania świata. Celem naszych wysiłków jest to, aby oczka tych sieci były coraz

drobniejsze" (Popper 1977, s.53). Popper również krytykował nadmierną precyzję języka

nauki. Użyteczne pojęcia charakteryzuje średnia precyzja (np. agresja jako zachowanie

którego celem jest wyrządzenie szkody innym) co umożliwia zarówno nadawanie im

empirycznego sensu (zgodzimy się że miarą agresji dziecka może być liczba bójek które

w ciągu tygodnia zainicjował) jak i wbudowanie pojęcia w szerszą teorię (np. koncepcję

frustracji-agresji).

Najczęściej badania prowadzone są w oparciu o teorię już funkcjonującą. Jeżeli jest

to spójna i dobrze opracowana powszechnie znana teoria badacz nie ma obowiązku tak

dokładnej analizy wprowadzanych pojęć- wystarczy że powoła się na dokonane już

ustalenia teoretyczne. Wprowadzając natomiast nowe pojęcia do tej teorii zobowiązany

jest zachować spójność z wcześniejszymi ustaleniami. Na przykład badacz- psycholog

opierający się na behawioralnej koncepcji człowieka (analizującej działanie jednostki w

kategoriach bodźców- reakcji, nawyków i uczenia się zachowań) popełni błąd odwołując

się bezpośrednio do systemu wyższych wartości. Aby zachować spójność teorii powinien

raczej mówić o "systemie wewnętrznych nagród", lub też zmienić przyjmowaną

koncepcję człowieka. W obrębie psychologii humanistycznej definiowanie wartości jest z

pewnością łatwiejsze.

1.4. Wiedza zdroworozsądkowa

Tradycyjnie wiedzy zdroworozsądkowej, w odróżnieniu od naukowej, przypisuje się

następujące cechy:

1. dowodzenie jedynie na podstawie wybranych przypadków- tendencyjny

dobór tych, które potwierdzają tezę.

2. Uznawanie poglądu, że jeśli B zdarzyło się później niż A , to A jest

przyczyną B.

3. Interpretacja współwystępowania jako przyczynowości

4. Rozumowanie przez analogię- jeśli A i B mają podobne niektóre cech, to

zapewne będą miały podobne i inne (ukryte teorie osobowości)

5. Złudzenie powszechności zjawiska – to co prawdziwe względem niektórych

członków grupy nie musi być prawdziwe o innych.

6. Nieuprawnione indywidualizowanie- jeśli coś jest prawdziwe w stosunku do

grupy, musi też być prawdziwe wobec każdego jej członka

7. Uleganie niemerytorycznej argumentacji (akceptacja jedynie na podstawie

autorytetu).

(wg Paluchowski 2001)

Powyższe cechy niestety odnoszą się do bardzo wielu twierdzeń naukowych. Listę

powyższych błędów logicznych należy więc traktować raczej jako przestrogę, w jako sposób

umysł – zarówno „człowieka z ulicy” jak i naukowca może zbłądzić badając rzeczywistość.

Page 10: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 10

Wykład 2. Prawdziwość wiedzy naukowej.

2.1. Zagadnienie prawdziwości wiedzy.

Rozwój nauki polega na weryfikacji różnorodnych twierdzeń. W naukach

empirycznych dokonuje się tego przez badanie rzeczywistości- zestawianie teoretycznych

postulatów z realnymi faktami. Często mówi się również o statystycznej weryfikacji

hipotez. Opisując wyżej reguły tworzenia poprawnych definicji pominęliśmy również fakt

prawdziwości (istnienia) przedmiotu definicji. W tej sytuacji należy postawić pytanie- co

na gruncie nauk empirycznych oznacza prawdziwość - pojęć, twierdzeń i teorii.

W naukach dedukcyjnych sprawa jest prostsza- twierdzenie jest prawdziwe, jeżeli da się

za pomocą reguł logicznego wnioskowania wyprowadzić z przesłanek- wcześniej

udowodnionych twierdzeń lub aksjomatów (przyjmowanych bez dowodu podstawowych

stwierdzeń danej dziedziny wiedzy).

Również w naukach empirycznych korzystamy niekiedy z dedukcji, istnieją nawet duże

obszary wiedzy jak np. psychometria- teoria pomiaru w psychologii o wysokim stopniu

sformalizowania. W tym przypadku prawdziwość wniosku uzależniona jest jedynie od

prawdziwości przesłanki, prawdziwość zaś teorii zależy od wartości jej aksjomatów.

Ścisłość tych teorii bywa jednak często złudna. Należy pamiętać, że za każdym pomiarem

stoją dwa podstawowe założenia teorii pomiaru- założenie istnienia relacji (tj.

twierdzenie, że w ogóle istnieje związek między mierzoną rzeczywistą cechą a wartością

pomiaru na skali) oraz założenie jednoznaczności tej relacji (tzn. każdej wartości cechy

można przyporządkować tylko jedną wartość na skali). W wielu badaniach ankietowych i

testowych założenia te wydają się wątpliwe.

2.2. Prawdziwość pojęć

Analizując zagadnienie prawdziwości pojęć teoretycznych (prawdziwość

obserwowalnych zjawisk na ogół nie budzi wątpliwości), należy stwierdzić że pojęcie

prawdziwe jest to po prostu pojęcie użyteczne. Użyteczność ta jest dwojakiego rodzaju. Z

jednej strony pozwala porządkować teorię, z drugiej trafnie opisywać rzeczywistość.

Pozwalając uporządkować pewien obszar rzeczywistości pojęcie samo staje się

rzeczywiste. Jeżeli np. rozważamy prawdziwość pojęcia "ekstrawertyk" interesuje

zarówno to, czy rzeczywiście da się na podstawie cech układu nerwowego wyodrębnić

grupę ludzi o cechach przypisywanych temu typowi temperamentu, jak również czy

rzeczywiście znamy ludzi do których określenie to pasuje.

W naukach empirycznych, szczególnie społecznych pojęcia mają często charakter

nieostry. Możemy wyobrazić sobie typowego choleryka, znamy jednak też z pewnością

osoby do których to pojęcie pasuje tylko pod pewnym względem. Dlatego też we

współczesnej metodologii klasyczną logikę dwuwartościową wypiera często

wielowartościowa (tzw. rozmyta). Zwykle też bardziej użyteczne niż wskazanie typu do

jakiego można zaliczyć daną osobę jest określenie jej pozycji na jakimś wymiarze

(kontinuum). W naszym przypadku mogłoby to być kontinuum, na którego jednym końcu

znajduje się typowy ekstrawertyk, na drugim zaś introwertyk.

Podejście wielowymiarowe do opisu rzeczywistości z kolei przywraca użyteczność

klasycznym, jakościowym typom. Przykładowo osoba ekstrawertywna charakteryzuje się

innymi właściwościami jeśli jest emocjonalnie zrównoważona, innymi zaś kiedy nie.

Zatem użyteczne z punktu widzenia aktualnej wiedzy o temperamencie staje się

przywrócenie klasycznych pojęć 4 typów osobowości- cholerycznego, sangwinicznego,

flegmatycznego i melancholicznego.

Page 11: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 11

Pułapkę stanowią tzw. ukryte paradygmaty- nieuświadomione założenia które

rzutują na myślenie badacza o rozważanym przedmiocie. Dobrze opisane na gruncie

psychologii są ukryte teorie osobowości, najczęściej mające swoje źródło w

nieuprawnionym uogólnianiu pojedynczych przypadków, np. badając ekstrawersję badacz

będzie przyjmował do wiadomości tylko te fakty które pasują do jego znajomego,

typowego ekstrawertyka.

Ćwiczenie (na podstawie eksperymentu Kelly’ego). Narysuj trójkąt. Wypisz na

jego wierzchołkach (A,B,C) imiona trzech znajomych. Zastanów się i zapisz jaką cechę

osobowości posiadają A i B, której nie posiada C. Następnie zanotuj, jaką cechę

posiadają A i C, natomiast nie posiada jej B. Uzupełnij schemat tym, co posiadają B i C w

odróżnieniu od A. Wypisane przez Ciebie cechy to Twoje osobiste konstrukty, elementy

ukrytej teorii osobowości. Należy uświadomić ją sobie, aby nie interferowała z teoriami

naukowymi.

2.3. Prawdziwość twierdzeń

Prawdziwość twierdzenia w nauce o charakterze indukcyjnym nie jest tak prosta do

wykazania, jak w przypadku wnioskowania dedukcyjnego. Indukcja polega na

wnioskowaniu ze szczegółowych przesłanek na temat ogólnych prawidłowości, przy

czym rzadko mamy do czynienia z indukcją zupełną- tj. ze sprawdzeniem wszystkich

możliwych podstawowych faktów do których odnosić się będzie twierdzenie ogólne.

Zwykle zakres wniosku przekracza wielokrotnie zakres zebranych przesłanek. Jest to

istota badania reprezentacyjnego- na podstawie wyników np. ankiety zebranych od

kilkuset osób wyciągamy wnioski o wszystkich mieszkańcach danego regionu.

Wnioskowanie indukcyjne jest zatem zawodne i niepewne- jest to cena jaką musimy

zapłacić w sytuacji, gdy ogólne twierdzenia chcemy weryfikować w oparciu o niewielki

zbiór faktów. Dzięki jednak metodom statystycznym jesteśmy dziś w stanie oszacować

prawdopodobieństwo takich twierdzeń.

Reasumując, twierdzenia funkcjonujące w obrębie psychologii mogą być prawdziwe na

mocy dowodu dedukcyjnego (np. 16% populacji posiada II wyższy niż 115, wynika to z

zasad konstrukcji skali) bądź na mocy indukcyjnego dowodu empirycznego (Np. osoby o

wysokim II charakteryzują się najczęściej lepszymi wynikami w nauce). Te ostatnie

prawa nie są zwykle bezwyjątkowe, orzekają jedynie o prawdopodobieństwie zachodzenia

pewnych zjawisk.

2.4. Prawdziwość teorii

Prawdziwość teorii naukowej, czyli systemu twierdzeń i terminów wiąże się z

kilkoma czynnikami.

Po pierwsze, teoria ta musi być niesprzeczna z obserwowanymi faktami. Ważne

też, aby jej struktura umożliwiała taką weryfikację. Jak wspomniano, zdaniem Poppera

jeżeli teoria stanowi zestaw zdań zawsze prawdziwych niezależnie od wyniku

doświadczenia zwykle nie wyjaśnia ona wiele i wartość jej jest niska.

Druga cecha prawdziwej teorii to jej użyteczność. Einstein wykazał, że można

opisać wszechświat za pomocą teorii Ptolemeusza (tzn. zakładając, że Ziemia jest

nieruchomym jego centrum) jak i według Kopernika, jednak opis ruchu ciał niebieskich za

pomocą teorii Ptolemeusza wymaga niezwykle skomplikowanego aparatu

matematycznego. Sam zresztą Kopernik (pamiętajmy że jego model powstał blisko

dwieście lat zanim Newton sformułował teorię grawitacji) uznawał swój system za lepszy

tylko dlatego, że wymagał mniejszej liczby hipotetycznych epicykli do opisania

obserwowalnych zjawisk. Tak więc z dwóch teorii niesprzecznych z doświadczeniem za

Page 12: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 12

bardziej prawdziwą uznajemy tą, która podsuwa nam wyjaśnienie prostsze i bardziej

użyteczne.

Teoria Kopernika stanowi dobry przykład ewolucji twierdzeń naukowych. Została

ona stworzona jako model prostszy od poprzedniego, wymagający przyjęcia mniejszej

ilości hipotetycznych konstrukcji. Przyrządy obserwacyjne nie mogły w tamtym czasie

dostarczyć dowodów na jej poparcie, przewidywania – do czasów Keplera -były

niedokładne, zaś mechanizm zjawisk zasadniczo nieznany aż do odkrycia teorii grawitacji

przez Newtona. A więc głównie prostota stanowiła argument za przyjęciem teorii. Model

Kopernika stał się inspiracją dla dalszego rozwoju astronomii, i na tym polu chyba jego

znaczenie jest największe.

Prostota teorii ma znaczenie w procedurze jej weryfikacji. Wyobraźmy sobie dwie

teorie- prostszą, gdzie zjawisko B tłumaczone jest za pomocą dwóch założeń A1 i A2,

oraz bardziej skomplikowaną, zakładającą cztery przyczyny.

(A1 A2) B

(A1 A2 A3 A4) B

Jeśli zjawisko B nie zachodzi zgodnie z przewidywaniem, znaczy to że jedna z

dwóch przesłanek jest fałszywa. Łatwiej zidentyfikować fałszywe twierdzenie i poprawić

teorię, kiedy potencjalnych fałszywych założeń jest mniej. Naturalnie badana

rzeczywistość jest z natury rzeczy skomplikowana, i nadmiernie uproszczone modele

mogą nie odpowiadać prawdzie.

Zadaniem wiedzy naukowej jest opis, wyjaśnianie i przewidywanie

rzeczywistości. Prawdziwość tej wiedzy jest zatem zrelatywizowana do tych trzech celów.

Teorie naukowe nie muszą być prawdziwe w sensie metafizycznym, tzn. nie wymaga się

aby w sposób niepodważalny i ostateczny docierały do istoty rzeczywistości. Wystarczy,

jeżeli spełniać będą te trzy cele- wierny opis rzeczywistości, wygodne wyjaśnianie faktów

i relacji między nimi oraz możliwość przewidywania zachodzących zjawisk.

Teoria to szereg powiązanych twierdzeń. Empiryczna falsyfikacja, a więc niezgodny z

doświadczeniem wynik zaprzecza całemu systemowi, koniunkcji twierdzeń. Wiemy zatem, że

jedno z nich jest fałszywe. Jeśli teoria posiada wiele założeń, odnalezienie fałszywego może

sprawić trudność. W teorii prostej łatwiej jest zaplanować eksperymenty testujące założenia.

Żadna teoria nie jest w zupełności prawdziwa, jednak teoria sprawdzona w wielu

doświadczeniach jest lepsza, gdyż tłumaczy szerszy zakres faktów.

Page 13: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 13

Wykład 3. Uwagi o języku naukowym

Jednym z kryteriów wiedzy naukowej jest ścisłość. Za realizację tego postulatu w

dużym stopniu odpowiada język naukowy. Winien on opierać się na precyzyjnych pojęciach,

dla których możliwe jest opracowanie obserwowalnych wskaźników, poddawać się

formalizacji matematycznej i umożliwiać budowanie poprawnych teorii według precyzyjnych

reguł.

Język naukowy w dużym stopniu, w odróżnieniu od naturalnych języków etnicznych

spełniać winien postulaty stawiane językom formalnym.

Języki formalne

1. Nie powstały w sposób naturalny, lecz zostały opracowane świadomie w określonym

celu;

2. Charakteryzują się precyzją i przejrzystością;

3. Nie mają charakteru ogólnego- ich stosowanie ogranicza się zwykle do pewnej

wąskiej dziedziny;

4. Charakteryzują się ostrością reguł składniowych.

Realizacja tych postulatów wobec zdań potocznych (np. w celu uściślenia pytania

która godzina?) prowadzić może do absurdu. Niemniej, jeśli twierdzenie potoczne „woda

dostatecznie ogrzana zagotuje się” miałoby stać się przedmiotem naukowej weryfikacji z

pewnością wymagało by przekształcenia.

Teorią języka (ogólniej- teorią znaków) zajmuje się semiotyka. Znak jest to (1)

spostrzegany zmysłowo substrat materialny (2) dostarczający informacji o innych

przedmiotach (3) dla określonej grupy odbiorców. Tym trzem składnikom definicji znaku

odpowiadają trzy działy semiotyki

1. Syntaktyka (tworzenie wyrażeń zgodnych z regułami języka)

2. Semantyka (określanie relacji między wyrażeniami a empiryczną rzeczywistością,

teoria znaczenia)

3. Pragmatyka (badanie relacji między wyrażeniami a ich odbiorcą)

3.1. Nazwy.

Desygnat: przedmiot o którym nazwa jest orzekana. Nazwy ze względu na

istnienie i liczbę desygnatów można podzielić na

1. Puste

2. Niepuste

a. Ogólne

b. Jednostkowe

Z innego zaś punktu widzenia na indywidualne i generalne.

Zakres nazwy (denotacja) to zbiór wszystkich desygnatów.

Nazwa może być ostra (wówczas o każdym przedmiocie da się orzec czy stanowi

jej desygnat czy też nie) lub nieostra (np. agresywny) .

Page 14: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 14

Treść nazwy to zespół cech charakterystycznych dla wszystkich jej desygnatów.

Treść istotna to taka z której można wywieść inne ważne cechy, nieistotna to zbiór

prawdziwych, lecz przypadkowych własności.

Znaczenie nazwy- to sposób rozumienia nazwy, określa ono konotację: zespół

cech charakterystycznych dla zakresu nazwy, za pomocą którego myślimy o jej

desygnatach.

Pojęcie- jest to znaczenie nazwy generalnej.

Pojęcia mogą być niejasne (kiedy brak jednoznacznego zespołu składających się

na dane pojęcie cech) lub nieostre (kiedy istnieją przedmioty, o których nie potrafimy

orzec czy stanowią desygnat odpowiadającej pojęciu nazwy)

3.2. Problem nadznaczenia.

W nauce funkcjonują także pojęcia nieobserwowalne. Są one inferowane na

podstawie obserwowalnych faktów. Oznacza to, że o zjawisku X orzekamy obserwując

jego wskaźniki, niemniej X nie jest definiowany przez te wskaźniki. Treść tych pojęć

zawiera, obok pojęć obserwacyjnych, także inne, dodatkowe elementy. Nie jest to wada

pojęć, przeciwnie- właśnie funkcjonowanie takich pojęć pozwala na rozwój nauki. Dzięki

temu teoria jest płodna- może generować hipotezy mówiące o zjawiskach innych niż

dotąd zaobserwowane. Np. dzięki takiemu nadznaczeniu pojęć używanych do opisu

dynamiki grup w psychologii społecznej można używać do stawiania hipotez odnośnie

zachowań ludzi w środowisku Internetu.

Cechy dyspozycyjne.

Cecha tego typu oznacza skłonność obiektu do zachowania się w określony sposób

w pewnych warunkach.

Aparat pojęciowy psychologii składa się więc z trzech rodzajów terminów:

Pojęć obserwacyjnych („częstość skurczów serca”)

Pojęć dyspozycyjnych („uległość społeczna”)

Pojęć teoretycznych, oznaczających inferowane zjawiska ukryte o mniej

lub bardziej złożonej strukturze (introwertyk).

3.3. Zdanie w sensie logicznym

jest wyrażeniem, któremu można przypisać prawdziwość lub fałsz. Zatem

sensowność zdania zależy od tego, czy można wskazać reguły jego weryfikacji. Wyróżnia

się 3 grupy reguł:

1. Aksjomatyczne- niektóre twierdzenia uznaje się za bezwarunkowo prawdziwe;

2. Dedukcyjne- logiczna zależność od wcześniej przyjętych twierdzeń.

3. Empiryczne- stwierdzenie zgodności z sytuacją empiryczną.

Nie są zdaniami pytania, oceny i dyrektywy, oraz niektóre typy definicji.

Klasyfikacja zdań według Kanta. Zdania których prawdziwość stwierdzamy

sposobem 1 i 2 to zdania a priori, ich prawdziwość nie zależy od doświadczenia. Zdania 3

– są to zdania a posteriori, zależne od doświadczenia.

Zdania analityczne rozwijają treść terminów. Ich zaprzeczenie prowadzi do

sprzeczności.

Page 15: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 15

Zdania syntetyczne wykraczają poza treść zawartych terminów. Ich zaprzeczenie

nie prowadzi do sprzeczności.

Zdania syntetyczne a priori- rozszerzające wiedzę a równocześnie pewne. Kant sądził,

że taki status mają twierdzenia np. geometryczne. Można je wyprowadzić z aksjomatów, a

równocześnie pozwalają na opis świata wnioskowanie i przewidywanie.

Współczesna interpretacja (Poincare) jest jednak inna. Przyjmuje się, iż prawa

geometrii jako opis rzeczywistej przestrzeni przyjmowane są na zasadzie konwencji, nie z

apodyktyczną pewnością.

J= <S, Z, Sk, In, D)

Język jest systemem złożonym ze słów, zdań, reguł składni, Reguł

inferencyjnych (uzasadniania jednych zdań za pomocą innych) oraz denotacji- reguł

wiążących język z empirią. Sądy- opisują rzeczywistość empiryczną.

Pojęcie Zdanie

(syntaktyka)

Teoria (Reguły

wewnętrzne)

Przedmioty

Sąd Prawa empiryczne

Nadawanie

znaczenia

(denotacja)

Reguły

interpretacji (zasady łączące)

Wskazanie

operacji

testującej

Świat symboli

(znaków)

Świat faktów

Page 16: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 16

Wykład 4. Elementy logiki. Definicje.

4.1. Logika

Logika to formalna nauka o rozumowaniu.

Zdanie w sensie logicznym jest to wyrażenie, które może przyjmować wartości

logiczne prawdy lub fałszu (w logice dwuwartościowej).

Negacja (nieprawda, że p jest prawdziwe)

p

Podstawowe formy zdań złożonych w logice to:

Koniunkcja (Zarówno p jak i q są prawdziwe)

P Q P Q

1 1 1

1 0 0

0 1 0

0 0 0

Alternatywa (p jest prawdziwe lub q jest prawdziwe)

P Q P Q

1 1 1

1 0 1

0 1 1

0 0 0

Implikacja (jeśli p jest prawdziwe, to q jest prawdziwe)

P Q P q

1 1 1

1 0 0

0 1 1

0 0 1

Page 17: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 17

Tożsamość (p jest prawdziwe wtedy i tylko wtedy, kiedy q jest prawdziwe)

P Q P q

1 1 1

1 0 0

0 1 0

0 0 1

Szczególnie istotną rolę w naukach empirycznych spełnia implikacja, ponieważ taki

status mają twierdzenia przewidujące empiryczne (obserwowalne) konkluzje na podstawie

teoretycznych przesłanek. Zasadniczy problem polega jednak na tym, że to konkluzja jest

obserwowalnym zjawiskiem. Zatem o przesłankach wnioskujemy na podstawie konkluzji. A

więc rozumowanie nie jest niezawodne (jak miałoby to miejsce w sytuacji odwrotnej).

Prawdziwa konkluzja nie świadczy o prawdziwości przesłanki. Obserwowane

zjawisko może wynikać z wielu różnych przyczyn.

Powstaje pytanie o sens tworzenia modeli teoretycznych i poddawania ich testom

empirycznym, skoro nie można ostatecznie ustalić ich prawdziwości. Jednak model który

został sprawdzony w wielu badaniach posiada większą ogólność, wyjaśnia więcej faktów,

integruje większą liczbę danych i dlatego winien być uznany za bardziej zadowalający.

Kwantyfikatory:

Kwantyfikator ogólny

x – dla każdego (dowolnego) x... Stanowi koniunkcję twierdzeń orzekających o

pewnej własności wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu

kwantyfikator ogólny wystarczy wskazać jeden obiekt, który takiej własności nie posiada.

Szczegółowy

x Istnieje taki x, że... Stanowi alternatywę twierdzeń orzekających pewną własność o

wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu kwantyfikator szczegółowy,

należy wykazać że żaden z x takiej własności nie posiada.

4.2. Definicje

Definicje pomagają w uściśleniu języka naukowego. Charakteryzują przedmioty,

umożliwiają wyrażanie jednych pojęć za pomocą innych bądź wprowadzają do języka nowe

pojęcia.

Dobra definicja pojęcia musi być zarazem formalnie poprawna i poznawczo

użyteczna. Aby jednak prześledzić w jaki sposób zapewnić jej te cechy, należy najpierw

określić do jakiego rodzaju definicja należy.

Wyraz definiowany to definiendum, wyrażenie określające to definiens.

Najbardziej użyteczny podział definicji wyróżnia definicje projektujące i

sprawozdawcze. Projektujące dzieli z kolei na konstrukcyjne i regulujące.

Page 18: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 18

Definicje projektujące nie są zdaniami w sensie logicznym. Wyrażają one tylko

decyzję ustalenia pewnego sposobu rozumienia słów, konwencji terminologicznej.

Przez zakres pamięci świeżej rozumieć będziemy dalej poprawnie odtworzonych słów z

podanej listy.

Definicje konstrukcyjne wprowadzają nowe pojęcia, regulujące precyzują znaczenia

już istniejących (wyostrzają zakres i usuwają wieloznaczność).

Definicje projektujące są zdaniami analitycznymi a priori. Wprowadzenie nowego

pojęcia wymaga jednak uzasadnienia jego sensowności.

Definicje sprawozdawcze zdają sprawę z zastanego sposobu rozumienia słowa. Są

zdaniami w sensie logicznym, mogą być prawdziwe lub fałszywe. Ekstrawersja wg

psychoanalityków jest to cecha umysłu odpowiadająca za sprawność myślenia i innych

czynności poznawczych, umożliwiająca jednostce korzystanie z nabytej wiedzy oraz skuteczne

zachowanie się wobec nowych zadań i sytuacji.

Pewne szczególne rodzaje definicji to:

1. Definicje aksjomatyczne- służą do wprowadzania pojęć pierwotnych. Są to definicje

kontekstowe, tj. uwikłane w zdania będące aksjomatami systemu. Definicja pojęcia

nie jest podana wprost, lecz jest ono użyte tak, aby można się było domyślić jego

znaczenia. Przykładem może być błąd pomiaru testu, wg. Gulliksena.

a. Wynik otrzymany to suma wyniku prawdziwego i błędu pomiaru

b. Średnia arytmetyczna błędów pomiaru wynosi 0.

c. Korelacja między wynikiem a błędem wynosi 0

d. Korelacja błędów w dwóch pomiarach wynosi 0

2. Definicje cząstkowe. Mają formę okresu warunkowego (implikacji) A B. A więc

tylko o przedmiotach posiadających cechę A można orzec, czy są B. Przedmioty nie

posiadające A nie są określone co do bycia B. Osoba która rozwiązała test jest

inteligentna. – ale na nierozwiązanie testu mogły wpłynąć inne niż brak inteligencji

przyczyny. Szczególnym przypadkiem są definicje redukcyjne, pozwalające na

redukcję terminu teoretycznego do zdań syntetycznych (sprawdzalnych), oraz

definicje operacyjne, wskazujące jaka procedura pozwoli ustalić, czy mamy do

czynienia z przedmiotem definiowanym.

4.3. Błędy definicji.

Nieostrość. (Istnieją obiekty o których nie można orzec czy należą do zakresu

definiowanego pojęcia)

Nieadekwatność Jeżeli nasza definicja ma charakter sprawozdawczy, a więc służy

uściśleniu znaczenia jakiegoś funkcjonującego już terminu, należy zadbać o jej prawidłowy

zakres. Nie może ona być zbyt wąska, co ma miejsce wtedy, kiedy nie obejmuje wszystkich

definiowanych zjawisk (np. "uwaga jest to selekcja napływającej informacji"- definicja taka

nie obejmuje wielu zjawisk związanych z tym pojęciem). Nie powinna być również zbyt

szeroka (np. "chory psychicznie jest to człowiek, który cierpi lub przysparza cierpienia

innym"- niewiele osób można by uznać za zdrowe w świetle takiej definicji). Między

zakresami może zachodzić nawet wykluczanie- Wolność to uświadomiona konieczność.

Idem per idem- błędne koło pośrednie i bezpośrednie.

Gatunek to zbiór organizmów o wspólnym, różnym od innych gatunków pochodzeniu.

Page 19: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 19

Ignotum per ignotum, nieznane przez nieznane. Może mieć charakter względny

(kiedy użyty w definiensie termin nie jest znany odbiorcy) lub bezwzględny (kiedy w ogóle

nie był wcześniej wprowadzany)

Sprzeczność- kiedy wynika z niej zdanie sprzeczne xyx y2

Definicje należy ściśle odróżnić od zdań empirycznych np. Ssaki to kręgowce, które

we wczesnym okresie życia żywią się mlekiem matki może być rozumiane dwoiście.

Poprawna definicja powinna wiązać wprowadzany termin z funkcjonującymi

wcześniej w danej dziedzinie wiedzy.

Warunki formalnej poprawności definicji nie zapewniają jednak jeszcze jej

użyteczności. Aby definicja była cenna z naukowego punktu widzenia, spełniać musi jeszcze

kilka dodatkowych kryteriów. Otóż po pierwsze, przedmiot definicji musi być ważny dla

danej dziedziny wiedzy. Istnieje wiele pojęć zdefiniowanych, które nigdy później nie zostały

użyte, lub których żywot okazał się krótki. Po drugie, cechy, za pomocą których termin jest

określany, również muszą być istotne i dobrze go określać. Definiując np. zespół objawów

charakterystycznych dla np. ospy można spokojnie pominąć podwyższoną temperaturę, która

jest znamienna także dla wielu innych chorób. Aby proponowana definicja była użyteczna

terminy w niej występujące nie mogą stanowić mieszanki pojęć funkcjonującej w różnych

teoriach. Jest to częste zjawisko w naukach empirycznych, a szczególnie społecznych,

ponieważ przyrost wiedzy polega tu nie tylko na dobudowywaniu nowych elementów do

dawnych ustaleń (jak w naukach ścisłych) ale polega często na tworzeniu od podstaw nowych

teorii.

Page 20: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 20

Wykład 5. Model badania naukowego.

5.1. Model hipotetyczno-dedukcyjny.

Nauka nie rozwija się poprzez tworzenie ogólnych twierdzeń drogą indukcji na

podstawie jednostkowych faktów. Model naukowy który wyjaśnia tylko fakty dotąd

zaobserwowane i nie pozwala na prognozowanie nowych faktów zwany jest modelem „ad

Hoc”, i jest dla nauki bezużyteczny (nie spełnia jej celów). Prawidłowy model nie tylko

wyjaśnia zaobserwowane dotychczas zjawiska, ale również pozwala na przewidywanie

dalszych faktów. Taki schemat rozwoju nauki, zaproponowany przez Poppera nosi nazwę

modelu hipotetyczno-dedukcyjnego.

Według tego modelu na podstawie obserwacji i uogólnienia (ale nie indukcji zupełnej)

pierwotnych faktów buduje się hipotetyczne wyjaśnienie zjawiska. Wyjaśnienie to pozwala na

przewidywanie nowych faktów. Badanie weryfikujące teorię (model) pozwala sprawdzić czy

przewidywane fakty rzeczywiście zachodzą. Jeśli tak- można przyjąć proponowane

wyjaśnienie. Jeżeli natomiast postulowane fakty nie zostaną zaobserwowane- proponowany

model należy odrzucić.

Model hipotetyczno-dedukcyjny ma ścisły związek z opisanymi wcześniej

własnościami implikacji logicznej. Obserwowane fakty pierwotne wynikają z przesłanek-

modelu wyjaśniającego. Ale odkrycie możliwego wyjaśnienia nie oznacza jeszcze że

wyjaśnienie jest poprawne- bo możliwych wyjaśnień może być wiele. A więc nie odkrycie

wyjaśnienia zjawisk stanowi zasadniczy cel- ale jego uzasadnienie.

Odmienne reguły stosujemy w kontekście odkrycia, kiedy dążymy do wykrycia

możliwych wyjaśnień, i celem naszym jest sformułowanie modelu niesprzecznego z faktami

pierwotnymi. Odmienne zasady obowiązują w kontekście uzasadniania. W tej sytuacji

staramy się o wysunięcie możliwie wielu hipotez, dotyczących kolejnych faktów, i następnie

hipotezy te krytycznie sprawdzamy.

Struktura nauki jednak jest bardziej złożona. Wiedza nie składa się wyłącznie z

jednostkowych twierdzeń o zależnościach między faktami, ale z hierarchii twierdzeń o coraz

wyższym stopniu ogólności. Jeżeli zatem doświadczenie daje wynik niezgodny z

oczekiwaniami teoretycznymi- oznacza to z pewnością konieczność odrzucenia pewnej

hipotezy, ale niekoniecznie całej teorii.

Świat teorii

Świat faktów Fakty

pierwotne

Model

wyjaśniający

Hipoteza

Fakty

przewidywane

Page 21: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 21

Teoria tworzona według tego modelu pierwotnie budowana jest przez indukcję,

następnie generowane (dedukowane) i sprawdzane są hipotezy. Gdy model prowadzi do

zgodnych z oczekiwaniami obserwacji- jest rozbudowywany, jeśli nie- korygowany.

Negatywny wynik eksperymentu może niekoniecznie być efektem fałszywej teorii. Być może

przyjmowane w badaniu dodatkowe założenia (np. dotyczące narzędzi badawczych czy

strategii analizy danych) okazały się fałszywe, być może też błąd pojawił się na etapie

wyprowadzania z teorii szczegółowych hipotez. Toteż wynik pojedynczego badania rzadko

obala teorię programową. Niekiedy teorię uważa się za zadowalającą, ponieważ nie udało się

sformułować lepszej. Wówczas formułuje się hipotezy pomocnicze-dodatkowe założenia

pozwalające utrzymać teorię.

Rozwój nauki przebiega skokami- dobrze funkcjonująca spójna teoria początkowo

wyjaśnia wszystkie obserwowane fakty. Potem pojawiają się fakty niezgodne z

oczekiwaniami. Aby je wyjaśnić teoria traci spójność, jest obudowywana systemem hipotez

pomocniczych. W pewny momencie pojawia się konkurencyjna prostsza teoria, niekiedy o

mniejszym zasięgu, szybko ogarniająca cały obszar wyjaśniany wcześniej przez starą teorię.

Tak dokonuje się rewolucja w nauce.

5.2. Cechy dobrej teorii

Reasumując rozważania nad właściwościami teorii naukowych, stwierdzić można

(W. Newton- Smith) iż kluczowe własności dobrej teorii to:

1. Ciągłość obserwacyjna (teoria wyjaśnia wszystkie sukcesy teorii którą zastąpiła)

2. Płodność (zdolność do generowania nowych hipotez)

3. Sukcesy w wyjaśnianiu faktów.

4. Wsparcie dla innych teorii (teoria stanowi część systemu wiedzy)

5. Oszczędność (w zakresie korzystania z hipotez pomocniczych)

6. Wewnętrzna spójność

7. Metafizyczna zgodność (niesprzeczność z światopoglądem badacza)

8. Prostota

Przykład z badań własnych:

Teoria programowa

Teorie szczegółowe

Hipotezy

Przewidywania Dane empiryczne

Page 22: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 22

Alfa/Bravo. Podejmowanie decyzji a procesy ruchu oka.

Eksperymenty Alfa i Bravo poświęcone były ruchom oka w sytuacji decyzyjnej.

Zgodnie z paradygmatem Fischera prowadzono je w schemacie nakładania się czasowego

(naturalnym) oraz przerwy czasowej, wymuszającym oderwanie uwagi i zwiększenie

udziału czynnika nieintencjonalnego w badaniu.

Badanie polegało na zainscenizowaniu prostej gry losowej, wymagającej

wyszukiwania informacji i podejmowania decyzji. Oczekiwano, że konieczność decyzji

spowoduje spowolnienie czasu reakcji, jednak rezultaty były przeciwne. Robocza

interpretacja (hipoteza pomocnicza) głosiła że na przyspieszenie czasu wpłynęła

motywacja.

Charlie. Obciążenie werbalnej pamięci roboczej a procesy ruchu oka.

W eksperymencie tym, nadal wykorzystującym paradygmat Fischera, analizowano

ruchy oka podczas gdy osoba badana musiała pamiętać (i rozpoznawać) coraz większy

materiał literowy. Znów w miejsce oczekiwanego przyrostu czasu reacji ruchów oka

zaobserwowano jego skrócenie. Co dziwniejsze podobnie jak w badaniach Saula

Sternberga w odniesieniu do czasu reakcji ręką następował liniowy przyrost w funkcji

zwiększającego się obciążenia pamięci.

Wynik eksperymentu Charlie wymusił modyfikację pierwotnej teorii. Przyjęto, że

zadania obciążające mechanizm centralny „odciągają” część zasobów uwagi,

równocześnie kontrola nad ruchami oka przejmowana jest przez mechanizmy silnie

zautomatyzowane, a więc czas ich działania jest krótszy. Taka interpretacja jest również

lepsza w odniesieniu do wyników eksperymentów Alfa/Bravo. Wniosek taki, jako

interpretacja „post-hoc” musiał jednak znaleźć potwierdzenie w badaniu którego założenia

byłyby oparte na nowej koncepcji.

Delta. Ruchy oka a kontrola motoryczna- potwierdzenie nowej syntezy.

Ponieważ wg Posnera do funkcji systemu uwagi należy kontrola nad aktywnością

motoryczną w kolejnym eksperymencie analizowano ruchy oka w sytuacji wymagającej

aktywności manualnej i w warunkach swobodnej rejestracji. Tym razem oczekiwano

skrócenia czasów reakcji oka wtedy, gdy system uwagi obciążony był koniecznością

nadzoru nad ruchami ręki. Wyniki badania w pełni potwierdziły postawione hipotezy.

Echo. Obciążenie wzrokowej pamięci roboczej wydłuża czas reakcji.

Wyjaśnienie- istnieją wspólne zasoby uwagi dla kierowania ruchami oka i

przetwarzania materiału w pamięci wzrokowo-przestrzennej.

Foxtrot. Wymuszenie intencjonalnego kierowania uwagi pogarsza pamiętanie

materiału.

Potwierdzenie istnienia wspólnych zasobów.

5.3. Etapy badania naukowego.

Dalsza część wywodów poświęcona będzie praktycznemu schematowi postępowania

badawczego. Kolejne wykłady dotyczyć więc będą kwestii jakie na poszczególnych etapach

badania są szczególnie istotne. Ważne jednak, aby patrzeć na badanie jako na całość.

Wszystkie etapy, o ile to możliwe powinny być planowane z góry, co pozwala uniknąć

przykrych niespodzianek, związanych np. z brakiem adekwatnych do problemu metod

statystycznych, czy niemożnością zbudowania skali pomiarowej. Programiści komputerów

Page 23: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 23

mawiają że jedna godzina zużyta na analizę problemu pozwala zaoszczędzić kilka godzin

pracy. Podobnie jest z badaniami empirycznymi. Prawidłowo zaplanowane badanie nie jest

trudne do przeprowadzenia a badacz nie jest (w większości wypadków) narażony na

niespodzianki. Ponadto dobrze zaplanowane badanie jest zawsze poprawne. Nawet uzyskanie

nieoczekiwanego z punktu widzenia teorii rezultatu, o ile nie popełniono błędu przy

planowaniu nie zmniejsza jego wartości, a czasami nawet jest dla nauki większym impulsem

niż potwierdzenie wszystkich hipotez.

Etapy te to kolejno:

1. Sformułowanie problemu

2. Postawienie hipotez teoretycznych

3. Operacjonalizacja

4. Weryfikacja hipotez

5. Generalizacja wyników.

Różni autorzy podają różne liczby etapów, kierunek rozumowania jest jednak zawsze

ten sam.

Pierwszym etapem jest sformułowanie problemu. Badacz dokonuje wstępnego

zakreślenia interesującej go problematyki i wskazuje szerszą teorię której rozwinięciem będą

jego badania. Na tym etapie należy zgromadzić dostępną wiedzę o interesującym nas

zagadnieniu, wykazać w tej wiedzy istniejące luki lub twierdzenia wymagające poprawnej

weryfikacji.

Drugi etap polega na sformułowaniu hipotez teoretycznych. Rozważania z pierwszego

etapu należy obecnie ukonkretnić, formułując hipotezy- twierdzenia które po

przeprowadzeniu proponowanych badań skłonni będziemy uznać za prawdziwe lub fałszywe.

Warto zaznaczyć, że wciąż jeszcze posługujemy się językiem pojęć teoretycznych.

Poszukiwanie wskaźników to problem kolejnego etapu.

Trzeci etap to operacjonalizacja hipotez. Poszukiwać będziemy obecnie wskaźników,

procedur pomiarowych i narzędzi pozwalających nam na przypisanie zmiennym wartości

liczbowych. Etap ten powinien zakończyć się dokładnym opisem planowanego badania-

badacz musi opisać co i w jaki sposób będzie mierzył, jakie zastosuje procedury manipulacji

zmiennymi niezależnymi (w badaniach eksperymentalnych) oraz jakie zastosuje metody

kontroli zmiennych ubocznych i minimalizacji niepożądanego wpływu niekontrolowanych

zmiennych zakłócających.

Etap czwarty to weryfikacja hipotez. Badacz, po zebraniu dostępnej wiedzy,

sformułowaniu własnych postulatów na temat rzeczywistości i opracowaniu metod ich

weryfikacji musi przystąpić wreszcie do badań. Czwarty etap podzielić można jeszcze na trzy

kroki. Pierwszy z nich to zbieranie danych- przeprowadzenie ankiet, badanie eksperymentalne

itp.

Po zebraniu danych kolejnym logicznym krokiem jest ich uporządkowanie. Należy

dokonać oceny wyników i zestawić wskaźniki statystyczne.

Ostatnim krokiem jest przeprowadzenie wnioskowania statystycznego. Zasadniczym

celem tego kroku jest uogólnienie zaobserwowanych prawidłowości z próby na populację.

Uzyskane do tej pory wyniki stanowią dopiero charakterystykę próby. Aby miały wartość

poznawczą należy uogólnić je na populację.

Page 24: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 24

W ostatnim etapie, generalizacji, należy zastanowić się, jak uzyskany wynik ma się do

teorii, która stanowiła punkt wyjścia- czy ją potwierdza, czy jej przeczy, czy pozwala ją

uogólnić czy też postawić ograniczenia. Należy rozważyć jakie mogą być w tym wypadku

ograniczenia wypływające z procedury badawczej. Ze świata faktów należy wrócić z

powrotem do świata teorii i włączyć w nią uzyskane rezultaty.

Page 25: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 25

Wykład 6. Zmienne w badaniach psychologicznych

Klasyka: Status zmiennych teoretycznych w psychologii

http://psychclassics.yorku.ca/MacMeehl/hypcon-intvar.htm

Etapem pierwszym badania naukowego jest określenie problemu badawczego. Badacz

podejmuje decyzję jakie zjawisko chce wyjaśniać, i jakie postuluje mechanizmy

wyjaśniania tego zjawiska. Dobrze postawiony problem to taki, który

- dotyczy fragmentu rzeczywistości o którym badacz zgromadził już

pewną wiedzę,

- Prowadzi do identyfikacji zbioru potencjalnych rozwiązań (wynikają

z niego hipotezy badawcze),

- Zawiera pojęcia zdefiniowane i możliwe do operacjonalizacji.

Źródłem inspiracji do stawiania problemów jest zwykle literatura przedmiotu- badacz

analizuje dotychczas przyjmowane modele i wyjaśnienia, i zwykle nasuwają mu się pomysły

poszerzenia zakresu ich stosowalności (Czy teoria XY sprawdzona w warunkach A

obowiązuje również w warunkach B? Czy możliwe jest alternatywne wyjaśnienie zjawisk?

Czy dwie teorie dadzą się połączyć w jedną ogólniejszą? Itp.). Niekiedy źródłem inspiracji

jest obserwacja życia społecznego (np. dlaczego ludzie dotknięci klęską żywiołową nie

ubezpieczają się? Co wpływa na agresję kierowców? ), niekiedy obserwacja paradoksów w

życiu codziennym. Ważnym motorem podejmowania badań mogą być także postępy nauk

pokrewnych (np. neurofizjologii) lub pojawienie się nowych dotychczas niedostępnych metod

badawczych (np. sztuczne sieci neuronowe, obrazowanie aktywności mózgu).

6.1. Klasyfikacja zmiennych

Podstawowym budulcem z którego formuje się problem badawczy są zmienne.

Zmienna formalnie rzecz ujmując jest to cecha przedmiotu która może przybierać dwie lub

więcej wartości.

Załóżmy dla uproszczenia, że zjawisko wyjaśniane sprowadza się do jednej zmiennej.

W hipotetycznym przykładzie niech będzie to powodzenie w nauce szkolnej.

Zmienna wyjaśniana nosi nazwę zmiennej zależnej (Zapisywać ją będziemy

symbolem Y).

Powodzenie w nauce szkolnej może zależeć od wielu różnych zmiennych- inteligencji,

cech osobowości ucznia, jego motywacji do nauki, warunków domowych, płci, odległości od

szkoły , z drugiej zaś strony warunków szkolnych, osobowości nauczyciela, programu itp.

Wyniki w nauce mogą oczywiście zależeć w pewnym stopniu od szczęścia, chorób dziecka,

warunków klimatycznych- badacz rzadko potrafi przedstawić pełną listę zmiennych

mogących potencjalnie wyjaśniać zmienną zależną.

Zmienne które mogą w jakimś stopniu wyjaśnić badane zjawisko nazywa się

zmiennymi niezależnymi. Będziemy je zapisywać symbolem X.

Jeśli badanie ma charakter eksploracji mówimy raczej o „zmiennych badanych”.

Pojęcie zmiennej zależnej i niezależnej rezerwujemy dla badań weryfikujących hipotezy,

szczególnie zaś eksperymentalnych

Page 26: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 26

Jak łatwo zauważyć badacz nie ma możliwości pomiaru wszystkich zmiennych.

Niektóre z nich z reguły pozostają niekontrolowane, i zakłócają przebieg badania.

Również spośród zmiennych kontrolowanych przez badacza nie wszystkie są dla

niego równie interesujące. W naszym przykładzie może np. zastanawiać się czy nowy

program nauczania wpłynie na wyniki w nauce.

Zmienne niezależne można więc podzielić na zmienne ważne i zakłócające.

Spośród zmiennych ważnych niektóre mogą mieć znaczenie pierwszoplanowe, inne

zaś chociaż nie są bezpośrednim przedmiotem badania winny być brane pod uwagę. Zatem

zmienne ważne podzielić można na główne i uboczne.

Nie jest prawdą, że zmienne główne muszą mieć większy wpływ na zmienną zależną

niż uboczne. Inteligencja może mieć większy wpływ na wyniki niż metoda nauczania, a

jednak, ponieważ nie stanowi zasadniczego tematu badania jest zmienną uboczną.

Schematycznie klasyfikacja zmiennych wygląda następująco:

Kontrola zmiennych polega na tym, iż jesteśmy w stanie określić ich wpływ na

zmienną zależną bądź wpływ ten wyeliminować. Ponieważ nie zawsze możemy to uczynić z

pełną dokładnością, stopień kontroli zmiennych można uznać za continuum.

Rozróżnienie między zmiennymi niezależnymi głównymi i ubocznymi polega na

sposobie ich włączenia w plan badania. Badamy bezpośredni wpływ zmiennej niezależnej

głównej na zmienną zależną, oraz wpływ zmiennych ubocznych na relację między zmienną

niezależną głównej i zmienną zależną.

Jeśli w naszym przykładzie będziemy się zastanawiać czy nowy program (zmienna

niezależna główna) wpływa na wyniki w nauce (zmienna zależna), zaś zmienną uboczną

będzie płeć- wówczas wbudowanie tej zmiennej w plan badania polegać będzie na kwestii czy

Zmienne niezależne istotne dla Y

Ważne Zakłócające

Główne (zawsze

kontrolowane)

Uboczne

(moderatory i

mediatory)

Kontrolowane Niekontrolowane Uniwersalne

Nie związane z

aktem badania

Związane z

aktem badania

Okazjonalne

Kontrolowane Kontrolowane Niekontrolowane Niekontrolowane

Page 27: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 27

program tak samo wpływa na wyniki w nauce chłopców i dziewcząt. Zmienna taka-

określająca warunki w jakich zachodzi wpływ zmiennej niezależnej na zależną nazywamy

moderatorem.

Możliwa jest jeszcze inna sytuacja- kiedy zmienna niezależna główna nie wpływa

bezpośrednio na zmienną zależną, lecz wywiera wpływ na inną zmienną pośredniczącą, a

dopiero ta z kolei powoduje zmiany zmiennej zależnej. W takiej sytuacji mówimy o zmiennej

ubocznej- mediatorze.

Wpływ zmiennych zakłócających (indywidualne zdolności, warunki szkolne itp.)

należy minimalizować przez odpowiedni dobór próby i ujednolicenie warunków badania.

Prawidłowo postawiony problem, realizowany w ramach modelu hipotetyczno

dedukcyjnego powinien pozwolić na określenie powyższych zmiennych. Czasem jednak,

kiedy teoria jest jeszcze mało dojrzała, prowadzone badania muszą dotyczyć inwentaryzacji

faktów, opisu prostych zależności bez wnikania w mechanizmy i modele wyjaśniające (te

dopiero mają powstać. Badanie takie dotyczy pierwszej fazy formułowania modelu, ma

charakter indukcyjny. Takie badanie nazywamy badaniem eksploracyjnym. Trudno wskazać

w takim badaniu zmienne zależne i niezależne, wszelkie klasyfikacje mają charakter sztuczny

i stanowią jedynie wstęp do sformułowania modelu.

6.2. Typy problemów badawczych i rodzaje zależności.

Problemy badawcze mogą dotyczyć zasadniczo pytań o poziom zmiennej zależnej w

populacji (np. jaka jest przeciętna liczba zapamiętanych po jednokrotnym odczytaniu cyfr w

populacji polskiej) lub też pytań o zależności między zmiennymi.

Zależności między zmiennymi możemy badać jako związki przyczynowo-skutkowe

lub korelacyjne.

W pierwszym przypadku staramy się udowodnić że zjawisko A jest przyczyną B. Nie

wystarczy zwykłe stwierdzenie ich współwystępowania- należy przeprowadzić badanie

eksperymentalne, w którym badacz manipulując zjawiskiem A doprowadzi do zmian zjawiska

B. Niekiedy także znajomość natury badanych zjawisk pozwala pośrednio wnosić które jest

przyczyną a które skutkiem (z pewnością raczej inteligencja warunkuje wyniki w nauce a nie

odwrotnie).

Badając zależności korelacyjne ograniczamy się do stwierdzenia ich

współwystępowania, nie wysuwamy twierdzeń które jest przyczyną a które skutkiem. Nie

przesądzamy czy A powoduje B, czy B powoduje A, czy też istnieje trzecia przyczyna C

warunkująca oba zjawiska A i B. W tym trzecim przypadku mówimy że między zjawiskami

A B zachodzi zależność pozorna (Lazarsfeld).

Zależności między zmiennymi niezależnymi a zmienną zależną mogą mieć charakter

zależności prostych lub interakcyjnych. W przypadku zależności prostej wpływ dwóch

zmiennych niezależnych na zależną jest sumą ich wpływów z osobna (jest addytywny)

Przykładem takiej zależności w naszym fikcyjnym przykładzie mogłyby być oceny

uzyskane przez chłopców i dziewczęta uczone wg dwóch programów nauczania:

Program A Program B Średnia

Page 28: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 28

Chłopcy 4 2 3

Dziewczęta 6 4 5

Średnia 5 3 4

W obu przypadkach program A jest lepszy, a dziewczęta uzyskują wyższe oceny.

Zatem najwyższe oceny uzyskują dziewczęta w programie A, najniższe chłopcy w programie

B.

W przypadku zależności interakcyjnej wyniki badania mogłyby wyglądać następująco:

Program A Program B Średnia

Chłopcy 5 1 3

Dziewczęta 5 5 5

Średnia 5 3 4

Pozornie (wg średnich brzegowych) nadal można przyjąć że program A jest lepszy, a

dziewczęta uzyskują wyższe oceny. Jednak dokładna analiza danych wskazuje że programy

są równoważne w przypadku nauczania dziewcząt, zaś jedynie w grupie chłopców istnieje

znaczna różnica pomiędzy wynikami programów A i B. Wyniki wewnątrz tabeli nie są

przewidywalne (jak było w pierwszym przypadku-zależności prostej) na podstawie

znajomości średnich brzegowych.

Strukturę zmiennych niezależnych wpływających na zmienną zależną nazywamy

obrazem przestrzeni zmiennych niezależnych.

Jeżeli zakładamy prosty (nieinterakcyjny) obraz przestrzeni- możemy badać

praktycznie nieograniczoną liczbę zmiennych niezależnych. W przypadku struktury

interakcyjnej interpretacja wpływu więcej niż 3 zmiennych niezależnych staje się bardzo

skomplikowana. Lepiej w takim przypadku przedstawić problem badawczy jako kilka

problemów cząstkowych, po opracowaniu których można starać się dokonać syntezy.

6.3. Zmienne uboczne: moderatory i mediatory

Obecnie możemy podać już dokładniejszą charakterystykę zmiennych ubocznych

mediatorów i moderatorów.

A zatem zmienna moderująca to taka zmienna, od której zależy charakter zależności

między zmienną niezależną główną a zmienną zależną. A zatem jeśli rozważamy wpływ

zmiennej X na Y to zmienna M jest moderatorem wówczas, gdy zachodzi interakcyjny wpływ

X oraz M na Y. Uwaga- nie jest konieczne aby zachodził związek prosty między M a Y czy

też X a M (to ostatnie jest wręcz nieuprawnione). Jednak M zmienia, modyfikuje wpływ jaki

na Y posiada X.

A więc jeśli „płeć” jest moderatorem, przyjrzyjmy się kolejnemu możliwemu

układowi danych:

Page 29: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 29

Program A Program B Średnia

Chłopcy 3 3 3

Dziewczęta 5 1 3

Średnia 4 2 3

Zauważmy, że

- Brak bezpośredniego związku między płcią a ocenami;

- Brak bezpośredniego związku między płcią a metodą nauczania (w

tym wypadku musiałoby to oznaczać, że różne ilości chłopców i

dziewcząt były uczone metodą A i B, co podważyłoby wiarygodność

analiz)

Oczywiście także wtedy kiedy zmienna M ma związek z Y (jak w drugiej tabeli na s.

22) również jest moderatorem.

Mediatorem natomiast może być motywacja. Wyobraźmy sobie następujący układ

zależności:

Motywacja jest zmienną pośredniczącą (mediatorem) gdy:

- Istnieje związek XY

- Istnieje związek XM oraz MY

- Po wyeliminowaniu wpływu zmiennej M zależność XY spada (w

idealnych warunkach do zera)

\

(X) Metoda

(M) Motywacja

(Y) Wyniki

Page 30: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 30

Wykład 7. Hipotezy i operacjonalizacja zmiennych.

7.1. Hipotezy

Hipoteza to zdanie w znaczeniu logicznym (zatem takie, które może być prawdziwe

lub fałszywe), będące odpowiedzią na problem badawczy, którego rozstrzygnięcia należy

poszukiwać w oparciu o badania empiryczne

Należy rozróżnić hipotezy od założeń. Założeniami w badaniu są twierdzenia które

uznajemy za prawdziwe na podstawie wcześniejszych badań i racjonalnej analizy. A więc są

to stwierdzenia których nie badamy. Naturalnie fiasko eksperymentu powoduje konieczność

dyskusji nad prawdziwością założeń- ale to już inna historia. W aktualnym badaniu

zakładamy założenia (jako tymczasowe pewniki) a sprawdzamy prawdziwość hipotez.

7.1.1. Warunki poprawności hipotez

.Aby hipoteza mogła być uznana za poprawną powinna spełniać szereg warunków. I

tak: (wg. Brzezińskiego)

1. Hipoteza musi być sprawdzalna

2. Hipoteza musi pozwalać na przewidywanie innych faktów niż pierwotnie

zaobserwowane. Np. widząc osobę A. wchodzącą do bufetu możemy postawić

hipotezę „A ma potrzebę wejścia do bufetu”, z której nic więcej nie wynika, nie może

zatem być poddana testowi. Hipoteza „A jest głodny” może być zweryfikowana-

przewidujemy że A. zakupi coś do jedzenia.

3. Hipoteza musi być adekwatną odpowiedzią na problem. W powyższym przykładzie

hipoteza „A umie chodzić” mija się całkowicie z sensem problemu.

4. Hipoteza musi być najprostszą odpowiedzią. „A ma kompulsywną potrzebę jedzenia

będącą reakcją na stres, w wyniku utrwalonej fiksacji oralnej”- może to być prawda,

jednak zanim poddamy taką hipotezę dalszym badaniom zdrowy rozsądek nakazuje

sprawdzić czy A nie jest przypadkiem głodny.

5. Hipoteza musi być tak sformułowana, aby łatwo można ją było przyjąć lub odrzucić.

Musi istnieć prosty test empiryczny (np. jak w p. 2).Hipoteza sformułowana w p. 4.

może prowadzić do różnych zachowań i test empiryczny jest trudniejszy.

6. Hipoteza nie powinna stanowić zbyt szerokiej generalizacji (np. „ludzie bywają

głodni”)

Dodatkowo proponuję przyjąć dwa warunki:

7. Hipoteza powinna wskazywać kierunek zależności, np. „Zastosowanie psychoterapii

spowoduje spadek poziomu lęku”. Taka hipoteza świadczy że badacz rozumie

mechanizm zjawiska (por. „Zastosowanie psychoterapii spowoduje zmianę poziomu

lęku”.) Dodatkowo hipoteza taka posiada lepsze własności w trakcie weryfikacji

statystycznej.

8. Hipoteza powinna mówić o istnieniu zależności, a nie o jej braku. Błędna jest więc

hipoteza „poziom lęku pod wpływem psychoterapii nie zmieni się”. Taką hipotezę

można ewentualnie odrzucić, ale nie można jej zweryfikować. Uzasadnienie wymaga

znajomości podstaw wnioskowania statystycznego, i będzie przedstawione w dalszej

części.

Page 31: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 31

7.1.2. Czy zawsze hipotezy są niezbędne w weryfikacji teorii?

Niezbędna jest jeszcze jedna refleksja: czy rzeczywiście, tak jak chciał Popper testowanie

hipotez jest niezbędne do przyjęcia teorii naukowej? Wydaje się że tak nie jest. Można

wymienić przynajmniej cztery sytuacje, w których teoria jest przyjmowana bez tego

etapu.

1. Indukcja. Niekiedy teoria jest budowana na podstawie obserwacji rzeczywistości bez

założeń wstępnych, wyszukiwania prawidłowości wśród empirycznych danych. Tak

powstała teoria Newtona, a w psychologii np. teoria Piageta oraz wiele innych.

2. Perspektywa. Niekiedy wybieramy nie teorię która ma najlepsze oparcie w faktach,

ale tę która jest najbardziej obiecująca- oferuje możliwość szerokiego i prostego

wyjaśniania, może sprawdzić się na wielu polach. Behawioryzm pierwotnie nie

dysponował szerszym potwierdzeniem sumą empirycznym niż np. strukturalizm (E.B.

Titchener: życie psychiczne jest elementarnych zjawisk i procesów, metodą ich

badania jest introspekcja), jednak był kierunkiem bardziej obiecującym.

3. Ważność. Niekiedy teoria nawet mało prawdopodobna utrzymuje się, gdyż badacze

zdają sobie sprawę z jej oryginalności i potencjalnie wielkiego znaczenia. Teoria

Freuda może być i w tym przypadku dobrym przykładem

4. Teoria wyjaśniająca- Niekiedy pojawia się teoria wyjaśniająca w prosty i precyzyjny

sposób znane fakty i utrzymuje się chociaż nie prowadzi bezpośrednio do odkrycia

nowych. Przykładem takiej teorii może być model Findlaya wyjaśniający ruch oka,

model Normana- Shalice’a tłumaczący automatyzm i kontrolę działania oraz szereg

innych.

7.2. Wskaźniki.

7.2.1. Klasyfikacja wskaźników

Pojęcie teoretyczne z założenia nie może być obserwowane bezpośrednio. Aby opisać

związki ilościowe między zjawiskami musimy zatem poszukać dla nich wskaźników.

Zjawisko nieobserwowalne lub trudno obserwowalne, o którym chcemy wnioskować

nazywać będziemy indicatum. Wskaźnikiem nazywać będziemy takie zjawisko obserwowalne

którego wystąpienie pozwala z dostatecznie dużym prawdopodobieństwem stwierdzić, że

zaszło również indicatum. Przykładem może być np. długość słupka rtęci w termometrze jako

wskaźnik temperatury, ilość osób głosujących na kandydata jako wskaźnik poparcia

społecznego czy też wynik w teście psychologicznym jako wskaźnik inteligencji.

Powyższe przykłady różnią się między sobą. Słupek rtęci w termometrze związany

jest z temperaturą na mocy prawa fizycznego. Jeżeli więc wskaźnik łączy z indicatum pewna

stwierdzona prawidłowość, nazwiemy go wskaźnikiem empirycznym.

Przykładowy wskaźnik poparcia społecznego może mieć inny charakter. Poparcie dla

kandydata w wyborach nie jest bowiem niczym innym, jak właśnie ilością oddanych głosów, i

może być w ten sposób zdefiniowane. Wskaźnik z indicatum łączy zatem związek

definicyjny. Sytuacja taka jest dosyć komfortowa- wskaźnik jest zawsze trafny. Niemniej,

wbrew stanowisku operacjonalistów, niewiele terminów naukowych można w ten sposób

sensownie zdefiniować.

Najtrudniejsza wydaje się ostatnia sytuacja (wynik testu jako wskaźnik inteligencji).

Indicatum ma tu charakter z założenia nieobserwowalny. Jest konstruktem teoretycznym,

pojęciem którego istnienie może być przez innych badaczy negowane (Nie wszyscy

psychologowie zgadzają się że istnieje jedna cecha zwana inteligencją). Aby więc budować

Page 32: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 32

wskaźnik, należy najpierw uzasadnić istnienie indicatum. Jak była już mowa w rozdziale

poświęconym prawdziwości wiedzy naukowej należy wykazać, że jest to pojęcie użyteczne,

pozwalające lepiej i prościej opisać zjawiska, pamiętając o spójności przyjmowanej teorii.

Wskaźniki tego typu nazywamy inferencyjnymi. Mają one zwykle charakter złożony,

dopiero konfiguracja kilku wskaźników inferencyjnych pozwala na wnioskowanie o

wystąpieniu indicatum. Wnioskowanie o prawdziwości zdania wprowadzającego wskaźnik

przeprowadza się podobnie jak w przypadku testowania teorii- oceniając czy zależności

opisywane z użyciem wskaźnika są zgodne z oczekiwaniami płynącymi z teorii.

Wskaźniki empiryczne i inferencyjne, w odróżnieniu od definicyjnych nazywamy

rzeczowymi.

Zdanie przypisujące wskaźnik do indicatum nazywamy zdaniem wprowadzającym

wskaźnik. W przypadku wskaźników rzeczowych zdania wprowadzające są zdaniami w

sensie logicznym. Są to zdania syntetyczne mogą być prawdziwe lub fałszywe (np. „obwód

głowy jest wskaźnikiem inteligencji”)

Trzy opisane wyżej typy nie wyczerpują całości zagadnienia klasyfikacji wskaźników.

Możliwe są również typy mieszane. Nie będą one w tym miejscu szczegółowo omawiane,

zainteresowani mogą sięgnąć np. po podręcznik J. Brzezińskiego (1984).

7.2.2. Moc rozdzielcza wskaźników

Nie każdy wskaźnik pozwala na wnioskowanie o indicatum z całkowitą pewnością.

Niekiedy zakres wskaźnika i zakres indicatum znacznie się między sobą różnią. Aby ocenić

relację zakresów indicatum i wskaźnika wprowadzono pojęcie mocy rozdzielczej

wskaźników. Wysoka moc rozdzielcza wskaźnika oznacza, że jego zakres w dużym stopniu

pokrywa się z zakresem indicatum. Większość obiektów charakteryzowanych przez wskaźnik

posiada również indicatum, i odwrotnie- większość obiektów posiadających indicatum

posiada również cechę będącą wskaźnikiem.

Wyróżnić możemy moc zawierania i moc odrzucania wskaźników. Moc zawierania

jest wysoka wtedy, kiedy wszystkie obiekty posiadające indicatum charakteryzowane są także

przez wskaźnik. Wskaźnik o dużej mocy zawierania może zatem być zbyt ogólny- badane

obiekty mogą posiadać wskaźnik nie posiadając indicatum. Duża moc zawierania interesować

nas będzie jeżeli istotne jest wychwycenie możliwie wielu obiektów charakteryzujących się

pewną cechą, zaś ryzyko "zakwalifikowania" obiektów cechy tej nie posiadających nie wiąże

się z dużym ryzykiem. Przyjmując do szkoły artystycznej osoby o wysokich zdolnościach

(przy założeniu że dysponujemy dostateczną liczbą miejsc) będziemy poszukiwać wskaźnika

talentu o dużej mocy zawierania, aby nie odrzucić osób uzdolnionych. Przyjęcie do szkoły

osób mało zdolnych nie wiąże się z dużym ryzykiem. Szukając wskaźnika groźnej choroby

postępować będziemy w ten sam sposób.

Moc zawierania=1

Moc odrzucania<1

Moc rozdzielcza<1

WW I

Page 33: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 33

Odwrotnie wygląda sytuacja, kiedy szukamy kandydatów np. do szkoły lotniczej. Tu

koszty szkolenia są wysokie, przyjęcie osób o niskich zdolnościach zaś wiąże się z poważnym

zagrożeniem dla nich samych. Dlatego poszukiwać będziemy wskaźnika zdolności o dużej

mocy odrzucania. Być może część osób potencjalnie zdolnych nie zostanie do szkoły

przyjęta, jednak ważniejsza jest dla nas pewność, że ci którzy się zakwalifikowali prezentują

odpowiednio wysoki poziom zdolności.

Moc zawierania<1

Moc odrzucania=1

Moc rozdzielcza<1

W rzeczywistości rzadko mamy do czynienia z sytuacjami tak skrajnymi. Wskaźniki

stosowane w badaniach empirycznych charakteryzuje zwykle pewien kompromis między

mocą zawierania i odrzucania. Warto pamiętać, że dysponując wskaźnikiem o charakterze

ciągłym (wyniki testu, oceny itp.) możemy regulować jego moc odrzucania i zawierania przez

łagodzenie bądź zaostrzanie kryteriów kwalifikacji.

Nowszym ujęciem mocy rozdzielczej wskaźników są pojęcia czułości i specyficzności

(Swoistości). Wskaźnik jest czuły, kiedy pozwala zidentyfikować jednostki posiadające

indicatum (wysoka moc zawierania), specyficzny kiedy pozwala na odrzucenie wszystkich

nie posiadających indicatum (moc odrzucania) Optymalny poziom kryterium, umożliwiający

uzyskanie żądanych parametrów wskaźnika ułatwia tzw. Krzywa ROC (Receiver Operating

Characteristics curve)

I W

Page 34: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 34

Krzywa ROC

Segmenty na przekątnej są utworzone przez wiązania.

1 - Swoistość

1,0,8,5,30,0

Czu

łość

1,0

,8

,5

,3

0,0

Wykres odzwierciedla relację między czułością a swoistością. Kryterium ilościowe

używane jest do przewidywania dwuwartościowego indicatum (np. wynik testu jako prognoza

wystąpienia określonego uszkodzenia mózgu. Zajmiemy się ustaleniem wartości progowej.

Dla małych wartości wyników testowych czułość jest niewielka- tylko mały odsetek osób

posiada indicatum, wielu chorych jest pomijanych. Im wyższy wynik, tym większa czułość-

coraz więcej osób chorych jest rozpoznawanych przez test, coraz mniej chorych

klasyfikowanych jest jako zdrowi (rośnie ilość prawidłowych rozpoznań). Jednak również

coraz więcej osób zdrowych klasyfikowanych jest jako chorzy („fałszywe alarmy”). Dla

wysokich wyników czułość jest bliska 1- prawie wszyscy chorzy zostali sklasyfikowani

prawidłowo. Jednak również wielu innych ludzi zostało zaklasyfikowanych jako chorzy-

spadła specyficzność testu (na wykresie oś pozioma jest odwrócona- to „1- swoistość”.

Jeśli zjawisko indictum jest rzadkie, należy być bardzo ostrożnym w stosowaniu

wskaźnika. Załóżmy, że kryterium pozwala określić osoby z zaburzeniami uwagi

wykluczającymi prowadzenie samochodu z czułością 1. oraz specyficznością 0.98. Osób z

tego typu zaburzeniem jest w populacji 0.005. A zatem po przebadaniu 1000 osób

wykryliśmy 25 osób spełniających kryterium, z czego 5 naprawdę ma zaburzenia zaś 20 ich

nie ma. A więc nawet przy pozornie znakomitych wskaźnikach formalnych podejmujemy

wiele nietrafnych decyzji.

Sytuacja jest nieco bardziej złożona kiedy mamy kilka wskaźników, o różnych wagach

(różnym prawdopodobieństwie). Do opisu tego typu złożonych wskaźników empirycznych

możemy zastosować model koneksjonistyczny:

W1 I1

Page 35: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 35

W2 I2

Strzałkom przypisane są wagi (np. na podstawie krzywej ROC) A zatem wystąpienie

wskaźnika W1 oznacza wystąpienie I1 z prawdopodobieństwem np. 0.80, zaś wystąpienie

W2 pozwala z prawdopodobieństwem 0.60 oczekiwać I2. Obserwator na podstawie

znajomości W1 i W2 musi ustalić czy zachodzi I1 czy I2.

Page 36: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 36

Wykład 8. Pomiar w psychologii- elementy psychometrii.

8.1. Struktura operacjonalizacji zmiennych psychologicznych.

Reguły łączące teorię z empirią, mają charakter kilkupoziomowy.

Punktem wyjścia jest podobieństwo i powtarzalność pewnych zachowań. Aby opisać

to podobieństwo i powtarzalność nadajemy nazwę pewnej cesze. Budujemy test- zestaw

bodźców. Reakcje na te bodźce mają nam pozwolić na przewidywanie tych zachowań, które

pierwotnie zaobserwowaliśmy w innych nowych sytuacjach. Test ten prezentujemy osobie

badanej- i istnieje pewien jej prawdziwy wynik w tym teście, tzn. średni wynik jaki

uzyskałaby gdyby test powtórzono wielokrotnie. Niestety, w aktualnych warunkach wynik

mógł ulec zniekształceniu- i stąd błąd pomiaru. Ostatecznie, otrzymany wynik jest sumą

błędu pomiaru i wyniku prawdziwego.

8.2. Definicja pomiaru

Zagadnienie pomiaru w psychologii należy do zagadnień operacjonalizacji zmiennych.

Załóżmy, iż dany jest pewien zbiór elementów empirycznych E. Elementy te można

scharakteryzować pewną cechą. Między obiektami empirycznymi ze względu na ową cechę

zachodzić mogą różne relacje. E jest wiec systemem empirycznym.

Dany jest również pewien matematyczny system, złożony z elementów

matematycznych (np. liczb lub kategorii jakościowych) oraz określonych relacji między nimi.

Przez pomiar rozumieć będziemy takie przypisanie elementów matematycznych

elementom empirycznym, że relacje między elementami empirycznymi były odzwierciedlone

w systemie matematycznym.

Funkcja pomiarowa to jednoznaczne przyporządkowanie elementów matematycznych

do elementów empirycznych.

Skala pomiarowa to system matematyczny, za pomocą funkcji pomiarowej

przyporządkowany systemowi empirycznemu.

Wynik prawdziwy skali IQ

Inteligencja- konstrukt

teoretyczny (Świat III)

Wynik otrzymany skali IQ

Wymiar empiryczny- Inteligencja jako

sposób organizacji zachowania (Świat I)

Page 37: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 37

Pomiar wielkości empirycznych wymaga rozważenia zagadnień istnienia i

jednoznaczności funkcji pomiarowej. Istnienie funkcji jest to kwestia możliwości przypisania

liczb badanej zmiennej- np. czy możliwy jest pomiar inteligencji za pomocą konkretnego

testu? Lub pomiar szczęścia (Choć niewątpliwie ludzie różnią się między sobą w tym

względzie)? W teorii testów psychologicznych problem istnienia funkcji pomiarowej jest

pokrewny do problemu trafności testu.

Problem jednoznaczności dotyczy zasadniczej w pomiarze sprawy, mianowicie czy

elementowi empirycznemu funkcja pomiarowa rzeczywiście przypisuje tylko jeden element

matematyczny? Mówiąc prościej, czy wynik pomiaru jest zawsze taki sam?

Inna kwestia to zgodność aksjomatów systemu matematycznego z prawami

rządzącymi systemem empirycznym. Np. czy relacja odległości, określona w świecie liczb,

posiada w ogóle sensowne znaczenie w świecie zjawisk empirycznych które chcielibyśmy

tymi liczbami opisać? Kwestia ta w pewnym stopniu znajduje rozwiązanie poprzez

klasyfikację skal pomiarowych, o czym niżej.

8.3. Typy skal pomiarowych

Typ skali informuje nas o tym, jakie relacje między wynikami pomiaru uznawać

będziemy za posiadające interpretację w świecie empirycznym. Dane czysto jakościowe

wyrażamy na skali nominalnej. Obiekty mogą być zaklasyfikowane do różnych kategorii, np.

wśród ludzi możemy wyróżnić osoby różnej płci lub zawodu. Relacje między kategoriami to

zgodność (A=B) lub różność (A B). Chcąc wskazać najbardziej typową w danej grupie

wartość cechy wskażemy na kategorię najliczniejszą (wartość modalna).

Skala porządkowa umożliwia porządkowanie danych. Zatem wyniki można

uszeregować np. rosnąco. Możemy wskazać wynik najwyższy itp. Uporządkowanie może

mieć charakter zupełny lub nie, jeżeli dopuszczamy możliwość przyjmowania wartości

identycznych. Chcąc wskazać najbardziej typową w danej grupie wartość cechy należy

obiekty uszeregować, następnie wskazać wartość cechy obiektu środkowego w

uporządkowaniu (wartość medialna, mediana).

Skala przedziałowa umożliwia określanie odległości. Wyniki zatem mogą być

poddawane operacjom arytmetycznym. Najbardziej typową wartość cechy w grupie

wyliczymy po prostu jako średnią arytmetyczną.

Wyobraźmy sobie sytuację: na ekranie pojawia się wyraz, a zadaniem badanego jest

określić, czy wyraz ten należy do pewnej kategorii, i nacisnąć przycisk jeśli tak. Rejestrowany

jest czas reakcji.

Należy raz jeszcze mocno podkreślić, że typ skali nie zależy od właściwości samych

liczb-wyników, lecz od tego jak odzwierciedlają one właściwości indicatum. Ten sam czas

reakcji może być bądź wskaźnikiem szybkości przetwarzania informacji (wówczas uznamy

go za pomiar na skali przedziałowej), stopnia znajomości pojęć (należy oczekiwać że skala

pomiaru będzie mieć charakter porządkowy) lub być wskaźnikiem zaburzeń – np. dysleksji

lub uszkodzenia płatów skroniowych- i wówczas dostarczy informacji jedynie nominalnej.

8.4. Elementy teorii testów psychologicznych

Omówienie zasadniczych właściwości testów psychologicznych zawiera podręcznik J.

Brzezińskiego. Zasadnicze wymagania co do testów zawarte są w Standardach dla testów

stosowanych w psychologii i pedagogice (1984) Warszawa: LTD PTP.

Page 38: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 38

Na wstępie zaznaczyć należy że poniższe informacje mają charakter bardzo ogólny.

Dokładne omówienie poruszanych tu zagadnień będzie przedmiotem osobnego kursu.

Od testów wymaga się aby były rzetelne, trafne, wystandaryzowane,

obiektywne i znormalizowane.

Wymóg standaryzacji oznacza, że test prezentowany jest w ustalony sposób.

Instrukcja i podręcznik testowy powinny w sposób jednoznaczny określać warunki i

procedury którym będzie poddany badany.

Obiektywizm dotyczy zasad oceny wyników testu. Powinny być one tak

określone, aby każda osoba interpretująca materiał testowy doszła do identycznych

wniosków.

Normalizacja z kolei to zaopatrzenie testu w procedury umożliwiające ocenę

wyniku osoby badanej na tle populacji do której chcemy wynik odnieść.

Ważne jest określenie populacji odniesienia, tj. zbiorowości na tle której

oceniamy wynik. Zwykle tworzy się tzw. normy ogólne, odnoszące wynik do

możliwie szerokiej grupy osób badanych, oraz normy lokalne- dla wąskich grup.

Tworzenie danych normalizacyjnych jest zadaniem trudnym i odpowiedzialnym, skład

grupy nie może być pozostawiony przypadkowi.

Trafność testu określa na ile mierzy on taką a nie inną cechę. Powiemy że mamy do

czynienia z trafnym testem inteligencji, jeśli uznamy że mierzy on rzeczywiście inteligencję,

a nie np. pamięć lub wyłącznie zdolności matematyczne. Pytanie o trafność to pytanie do

jakich wniosków uprawnia nas wynik testu. Trafność zakłada istnienie związku między

wynikiem a latentną (teoretyczną) zmienną psychologiczną. Dlatego kwestia ta jest

szczególnym przypadkiem problemu istnienia funkcji pomiarowej.

Rzetelność testu jest to dokładność pomiaru. Zakładając, że test mierzy pewną cechę

(np. inteligencję) w sposób trafny, badając rzetelność pytamy na ile pomiar jest obarczony

błędem.

Ponieważ aby test był trafny musi najpierw w ogóle coś mierzyć, a nie popełniać

wyłącznie błędy stwierdzamy że rzetelność jest granicą trafności testu. Test popełniający

duże błędy nie mierzy po prostu niczego, a więc nie może być trafny.

Rzetelność testu nie może być oceniona bezpośrednio, gdyż nie znamy wyników

prawdziwych. Toteż oceniamy ją bądź przez dwukrotne badania testem (stabilność) bądź też

poprzez ocenę, czy poszczególne części testu dają wyniki zgodne (zgodność wewnętrzna).

Page 39: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 39

Wykład 9. Trafność testów psychologicznych

Klasyczny tekst Cornbach & Meehl (1955)

http://psychclassics.yorku.ca/Cronbach/construct.htm

Trafność testu to dokładność, z jaką test mierzy to do pomiaru czego został

skonstruowany. Pytanie o trafność to pytanie o to, jakie wnioski można w uprawniony sposób

z wyników testu wyciągnąć.

Najbardziej aktualna oficjalna definicja trafności zawarta jest w Standardach APA z r.

1999.

Trafność to stopień, z jakim doświadczenie i teoria są zgodne z interpretacją wyników

testu uzyskaną poprzez wskazany sposób jego zastosowania. Proces oceny trafności obejmuje

gromadzenie dowodów naukowych potwierdzających wskazany sposób interpretacji wyników

testowych. Istotne jest, że badany jest sposób interpretacji wyników, a nie sam test. Kiedy

wyniki mogą być interpretowane i stosowane na kilka sposobów, musi być przeprowadzone

badanie trafności każdego z nich. Badanie trafności obejmuje następujące aspekty (ale nie

ogranicza się do nich):

- badanie zawartości treściowej testu;

- badanie procesu rozwiązywania testu;

- badanie wewnętrznej struktury testu;

- badanie związków wyników testu z innymi zmiennymi

- badanie konsekwencji testowania

9.1. Czym jest cecha psychiczna i kiedy można orzec że ona istnieje?

Podstawowym pytaniem przed rozpoczęciem analizy trafności jest kwestia istnienia

badanej cechy. Nie każda postulowana cecha stanowi rzeczywistość psychologiczną, musi

ona w istotny sposób ułatwiać opis, rozumienie i przewidywanie zachowania człowieka (są to

cele nauki). Np. możliwe jest określenie zmiennej „potrzeba wolności”. Można oczywiście

uszeregować ludzi od tych, którzy potrzebę taką posiadają w niewielkim stopniu do takich,

dla których jest to istotna wartość. Można zbudować test, który będzie nasilenie takiej cechy

mierzył dość precyzyjnie. Jednak bliższa analiza nasuwa wiele wątpliwości.

Załóżmy, że badacz oczekiwał związku między potrzebą wolności a poczuciem sensu

życia. Zjawisko nie jest jednak proste- potrzeba wolności może wiązać się z pustką i chęcią

ucieczki- albo też z dążeniem do samorealizacji. Tylko ludzie dążący do samorealizacji będą

mieli wyższy poziom poczucia sensu życia. Z drugiej strony mała potrzeba wolności może

wiązać się z poczuciem beznadziei, albo też wynikać z satysfakcjonującej aktualnie sytuacji

życiowej. Jedynie w pierwszym przypadku można oczekiwać braku sensu życia.

Problem polega na tym, że pozornie możliwa do zdefiniowania „potrzeba wolności”

jest zjawiskiem złożonym, niejednorodnym, wielowymiarowym. Nie istnieje zatem proste

continuum tej cechy. Nawet jeśli można z powodzeniem uszeregować ludzi od niskiego do

wysokiego nasilenia cechy- na obu krańcach continuum znajdą się ludzie różni na tyle, że

wyjaśnienie jakiegokolwiek zjawiska przez potrzebę wolności staje się problematyczne.

Grupowanie osób charakteryzujących się wysokim i niskim wynikiem, bardzo różnych

Page 40: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 40

psychologicznie nie sprzyja też systematyczności opisu. Przewidywanie ich zachowań może

także być nietrafne. Przypomnijmy, że model 1prawdziwy to model użyteczny- a dla nauki

użyteczny jest model właśnie realizujący trzy cele: opis, wyjaśnianie i przewidywanie

rzeczywistości.

Rzeczywistość psychologiczna jest niekiedy bardzo złożona. Skala służąca do

identyfikacji osobowości histerycznej składa się z pytań dotyczących skarg somatycznych i

potrzeby więzi społecznych. U osób dobrze przystosowanych te dwie grupy pytań dają wyniki

sprzeczne- normalnie osoba która czuje się chora unika towarzystwa. Jednak w przypadku

osobowości histerycznej (zwłaszcza znacznego nasilenia mechanizmu konwersji) właśnie

skargi somatyczne są wykorzystywane jako środek do wywierania wpływu na innych. Zatem

w grupie osób zaburzonych te dwie grupy pytań tworzą spójną całość. Zatem zmienna

mierzona przez tą skalę istnieje, lecz tylko u pewnej grupy osób.

Nie każda zmienna jaka da się pomyśleć istnieje w rzeczywistości. Badając trafność

narzędzi zakładamy, że cecha stanowi rzeczywisty konstrukt teoretyczny, posiadający dobre

osadzenie w badanej rzeczywistości.

Interesujące rozważania nad logicznym statusem cech osobowości znaleźć można w

tekście J Brzezińskiego zamieszczonym w pracy W. Sanockiego (1986) Kwestionariusze

osobowości w psychologii, Warszawa: PWN. Człowiek reaguje na bodźce, regulując w ten

sposób swoje stosunki z otoczeniem, zaspokajając potrzeby, niższe i wyższe, dążąc do

dalekosiężnych celów itd. Ponieważ rekcje na ten sam bodziec mogą być różne, utrwalone

tendencje do pewnych klas reakcji nazwać można osobowością.

W skrócie – osobowość jest systemem regulacji naszych relacji z otoczeniem. Cechy

osobowości mają zatem charakter meta-relacji. A więc interesujący nas problem istnienia

cech osobowości daje się sprowadzić do obserwowalnych, powtarzalnych tendencji w

zachowaniu.

Solidny choć nie do końca aktualny przegląd teoretycznych podejść do definiowania

cech osobowości:

http://www.seminare.pl/16/buksik1.htm

9.2. Rodzaje trafności

Wyróżnia się kilka rodzajów trafności.

Trafność kryterialna to zgodność z kryterium zewnętrznym. Mówimy o trafności

diagnostycznej, kiedy test powinien przewidywać kryterium aktualne (np. testy

psychoorganiczne, badające występowanie uszkodzeń mózgu) oraz o trafności prognostycznej

kiedy zadaniem testu jest przewidywanie zachowań lub osiągnięć w przyszłości (np.

ukończenia szkoły).

Trafność treściowa to stopień w jakim materiał testowy jest reprezentatywny dla

badanej cechy. Np. test wiadomości szkolnych powinien równomiernie dotyczyć wszystkich

zagadnień omawianych w ramach danego przedmiotu.

Trafność teoretyczna to stopień w jakim wyniki badań testem pokrywają się z

oczekiwaniami teoretycznymi.

1 Cecha może stanowić element takiego modelu

Page 41: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 41

Lekceważony często rodzaj trafności to trafność fasadowa. Test jest trafny fasadowo,

jeśli robi na badanym wrażenie zgodne z oczekiwaniami badacza. Istotność tego wrażenia jest

dwojaka- po pierwsze test powinien sprawiać wrażenie profesjonalnego narzędzia, co

zwiększa u badanego motywację do współpracy. Po drugie właściwa forma prezentacji testu

pozwala ukryć – jeśli to konieczne- rzeczywisty cel badania (częste w testach projekcyjnych).

W ostatnich latach pojawiło się także pojęcie trafności społecznej. Test jest trafny w

tym aspekcie jeśli odpowiada na zapotrzebowanie użytkownika. Jeśli więc test pozwala na

dobrą selekcję pracowników, jest akceptowany przez osoby stosujące go, testowane i

zlecające badanie – wówczas spełnia to kryterium. Pojęcie to jest zatem zależne od trafności

teoretycznej, kryterialnej i fasadowej testu.

9.3. Metody oceny trafności testu

W przypadku trafności treściowej ocena jest w zasadzie prosta. Na podstawie definicji

cechy stwierdzamy jakie elementy powinien zawierać test, dobieramy pulę pozycji testowych,

następnie (najczęściej) przy pomocy kilku tzw. sędziów kompetentnych oceniamy czy

pozycje są reprezentatywne dla cechy. Należy pamiętać, że sędziowie powinni być zgodni w

opiniach i oceniać test pozytywnie, i że oba te kryteria muszą być sprawdzone statystycznie.

Należy ponadto uważać by eliminując z pierwotnej puli pozycje słabe z formalnego,

statystycznego punktu widzenia nie odrzucić pozycji kluczowych z punktu widzenia definicji

cechy.

W przypadku trafności kryterialnej istnieje zwykle jasno określone, empirycznie sprawdzalne

kryterium. Badanie tego rodzaju trafności jest również zasadniczo proste, choć czasem np. w

wypadku trafności prognostycznej wymaga wieloletnich badań podłużnych. Skażenie (kontaminacja) kryterium- zachodzi jeśli kwalifikacja do grupy kryterialnej

odbywała się m.in. na podstawie wyników badanego testu.

Najtrudniejsze jest badanie trafności teoretycznej. Należy zauważyć że test

psychologiczny dla większości zmiennych ma status wskaźnika inferencyjnego, tj. o

wystąpieniu indicatum możemy wnosić wyłącznie na podstawie analizy wyników testu.

Istnieje szereg strategii badania testu. Generalnie każda z nich ma za zadanie dowieść że

wyniki testu zachowują się zgodnie z tym czego należałoby oczekiwać na podstawie teorii

stojącej u podłoża definicji cechy. Można zatem badać test metodą oceny różnic

międzygrupowych- wykazać że grupy które winny się różnić ze względu na badaną zmienną

X istotnie różnią się wynikami testu T. Jest to argument za tym, że test T w istocie bada

zmienną X. Metoda zmian nieprzypadkowych wykazuje, że jeśli oczekiwano zmiany w

zakresie zmiennej X, również zmienią się wyniki testu T. Metoda analizy korelacji z innymi

testami (tzw. macierz wielu cech- wielu metod) pozwala na ocenę trafności w dwu aspektach:

zbieżnym (test T wysoko koreluje z wynikami testów mierzących podobne zmienne) i

różnicowy (test ma niskie wskaźniki korelacji z metodami mierzącymi odrębne konstrukty).

Przykładem może być skala depresji Zunga (Terelak, Tarnowski, Kwasucki 1993), która

zadowalająco korelowała z innymi testami depresji, natomiast silniej jeszcze ze skalą

kłamstwa. Narzędzie takie nie było trafne- mierzyło raczej postawę obronną i wrażliwość na

aprobatę społeczną niż rzeczywistą depresję.

Metody oparte na tzw. analizie czynnikowej badają czy wewnętrzna struktura testu

(związki między poszczególnymi zadaniami) jest zgodna z teorią. W innej wersji metody

ocenia się czy wynik testu stanowi dopasowany element struktury wielu zmiennych

badających daną sferę psychiki.

Page 42: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 42

W badaniu trafności społecznej podstawowa jest inna metoda- ocena efektów

testowania. Proces ten polega na badaniu jakie konsekwencje wiązały się z zastosowaniem

konkretnego testu, a ściślej- pewnej jego interpretacji.

9.4. Model trafności Messicka:

Istnieją dwa zasadnicze aspekty badania trafności testu: przeznaczenie i uzasadnienie.

Pierwszy z nich (przeznaczenie) daje się scharakteryzować na wymiarze wyjaśnianie-

zastosowanie. Można zatem mówić o trafności testu jako narzędzia badawczego psychologa-

teoretyka, lub trafności testu używanego do badań praktycznych w diagnostyce

psychologicznej. Te dwa aspekty nie wykluczają się, przeciwnie muszą współgrać. Test

„praktyczny” pozbawiony podstaw teoretycznych nie jest trafny, gdyż nie można powiedzieć

jak daleko da się uogólniać wnioski wyciągane z jego wyników (trafność testu to poprawność

wniosków). Testy przeznaczone wyłącznie do badań naukowych również nie są użyteczne-

ich trafność nie może zostać skonfrontowana z sytuacją konkretnych ludzi, a w efekcie to do

nich będą się odnosić wnioski wszelkich badań psychologicznych.

Drugi aspekt (uzasadnienie) sprowadza się do wymiaru dowód-konsekwencje. Jest to

pytanie o to, czy trafność testu dowodzona będzie w systematycznych badaniach

poprzedzających wprowadzenie testu, czy też poprzez analizę wniosków z testu już

zastosowanego.

Trafność można zatem rozważać następująco:

Dowodzenie poprawności wyjaśniania: Trafność teoretyczna

Konsekwencje wyjaśniania: Implikacje wyniku

Dowodzenie poprawności zastosowania: Trafność kryterialna

Konsekwencje zastosowania: trafność społeczna.

Uzasadnienie (metodologia badań)

Dowód konsekwencje

Przeznaczenie Wyjaśnianie Trafność

teoretyczna

Implikacje wyniku

(cel badań) Zastosowanie Trafność

kryterialna

trafność społeczna

(ekologiczna)

Model Messicka jest ważny, ponieważ dołącza do klasycznych rozważań nowy

wątek- badania trafności zorientowane na zastosowanie oraz metody badań, oparte

na analizie konsekwencji stosowania. To drugie podejście zmienia zasadniczo

punkt ciężkości badań. Wyrafinowane analizy statystyczne zostają zastępowane

analizami użyteczności (zarówno w aspekcie naukowy jak i praktycznym)

wyników testów u poszczególnych osób.

Page 43: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 43

9.5. Inne metody pomiaru w psychologii

Pomiar psychologiczny to nie tylko testy. Coraz większe znaczenie mają wskaźniki

chronometryczne, psychofizjologiczne i neuroobrazowanie.

9.5.1. Wskaźniki chronometryczne

Wskaźniki chronometryczne są oparte na analizie czasu reakcji. Metoda podwójnych

zadań pozwala badać mechanizmy poznawcze. Badany otrzymuje zadanie pierwszoplanowe

(np. wykonywanie działań w pamięci) i równocześnie jest proszony o wykonanie pewnych

zadań dodatkowych (np. zapamiętania położenia punktu). Jeśli parametry czasowe i jakość

wykonania pierwszego zadania nie pogarszają się oznacza to że oba zadania wykorzystują

odrębne struktury poznawcze (w tym przypadku pamięć werbalną i notes przestrzenny).

9.5.2. Neuroobrazowanie

Jest metodą pozwalającą lokalizować mózgową organizację procesów psychicznych.

Metody neuroobrazowania to najczęściej Elektroencefalografia (zapis potencjałów

elektrycznych wywołanych przez fale mózgowe, magnetoencefalografia, tomografia

pozytronowa i funkcjonalny rezonans magnetyczny..

Dwie pierwsze metody wykorzystują aktywność elektryczną mózgu- dlatego

pozwalają na pomiar efektów z dużą rozdzielczością czasową. Dwie kolejne metody

pozwalają śledzić przepływ krwi w strukturach mózgu, toteż od zadziałania bodźca do

zwiększenia zapotrzebowania na tlen w określonej części mózgu, zwiększenia ukrwienia i

wreszcie do zaobserwowania obrazu na skanerze upływa wiele czasu. Natomiast lokalizacja

przestrzenna struktur zaangażowanych w wykonanie zadania jest znacznie lepsza.

Problemem przy konstruowaniu eksperymentu opartego na neuroobrazowaniu jest

fakt, że mózg w danym momencie nie realizuje tylko i wyłącznie jednego zadania. Jeśli,

przykładowo, zależy nam na odszukaniu struktury mózgowej odpowiedzialnej za rozumienie

czasowników, po zaprezentowaniu czasownika na ekranie uaktywnią się struktury

odpowiedzialne za spostrzeganie wzrokowe, rozumienie słów, w tym czasowników. Aby więc

wyodrębnić tylko ostatni z elementów, należy badanie starannie zaplanować.

Pierwsza z możliwych strategii jest określana jako „logika odejmowania”. W tym celu

tworzymy pary zadań, od najprostszych (w omawianym przykładzie może to być stymulacja

światłem) aż do zadania docelowego. Każde kolejne zadanie zawiera dodatkowy element (np.

rozróżnianie liter) Odejmując cyfrowy obraz zadania pierwszego od drugiego, dowiemy się

jakie struktury są odpowiedzialne za specyficzne rozróżnianie liter, i tak dalej- aż

wyodrębnimy interesującą nas funkcję.

Druga możliwość, parametryczne różnicowanie, polega na eskalacji oddziaływania

jednego z czynników. Przykładowo, można poprosić badanych o szybkie czytanie dwóch

tekstów- z małą i dużą zawartością czasowników. Wówczas prawdopodobnie zaobserwuje się

wzrost pobudzenia rejonów odpowiedzialnych za przetwarzanie tego czynnika.

Page 44: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 44

Wykład 10. Wprowadzenie do metod statystycznych w psychologii

10.1. Dlaczego statystyka?

Istnieje szereg powodów dla których statystyka jest niezbędnym elementem wszelkich

badań naukowych, a zatem również na gruncie nauk empirycznych- w szczególności

psychologii. Metody statystyczne będą przedmiotem odrębnego kursu, w tym miejscu więc

jedynie zasygnalizowane zostaną te aspekty które mają szczególne znaczenie dla

metodologicznie poprawnego planowania badań.

Nie wszystkie odkrycia w psychologii dokonane zostały z wykorzystaniem metod

statystycznych. Freud, Piaget i wielu innych wniosło ogromny wkład chociaż pracowali na

nielicznej grupie przypadków opisywanych klinicznie. Jednak chociaż trudno przecenić tego

typu prace w kontekście odkrycia teorii, w kontekście jej uzasadnienia rola statystyki jest

znacznie większa.

Pierwszym, „metafizycznym” powodem dla którego statystyka jest do badań

naukowych narzędziem koniecznym jest „nieznośna nieprzewidywalność zjawisk”. Zjawiska

przyrodnicze wydają się lepiej poddawać opisowi probabilistycznemu niż

deterministycznemu. W każdym badanym zjawisku zawsze pozostaje element niewyjaśniony

i nieprzewidywalny. Prawa deterministyczne jeśli nawet istnieją wydają się być poza

zasięgiem ludzkiego poznania. Nawet procesy fizyczne do niedawna uznawane za

zdeterminowane okazują się przy bliższym poznaniu zależne od czynnika losowego. Według

celnej metafory Karla Poppera „na świecie jest więcej chmur niż zegarów”.

Drugi powód ma charakter logiczny. Nigdy w naukach empirycznych nie można

przeprowadzić indukcji zupełnej- czyli udowodnić ogólnej prawidłowości poprzez wyliczenie

wszystkich jednostkowych przypadków. Gdyby nawet udało się zbadać wszystkich żyjących

ludzi- nie wiadomo czy nasze prawo obowiązywało by po upływie pewnego czasu. Zatem

skazani niejako jesteśmy na badanie prób- i generalizowanie wyników na populację w drodze

statystycznej.

10.2. Pojęcie wariancji

Zasadniczą rolę w badaniu rzeczywistości pełni pojęcie zmienności, czyli wariancji.

Można stwierdzić, że to właśnie zmienność jest tym, co nauka stara się wyjaśnić. Jeśli

wszyscy ludzie mieli by podobną inteligencję- nie byłoby sensu prowadzić badań nad jej

uwarunkowaniami. Prawdopodobnie w ogóle nie powstało by takie pojęcie.

O wariancji można mówić w sensie szerszym lub węższym. W szerszym sensie

oznacza ona w ogóle jakąkolwiek obserwowalną zmienność zjawisk. W węższym sprowadza

się do współczynnika opisującego zróżnicowania danych, o ile są one wyrażone na skali

przedziałowej (dobór metod statystycznych w zasadniczy sposób zależy od tego, na jakiej

skali wyrażona jest badana zmienna).

Jeżeli (przykład E. Paszkiewicz) w klasie dzieci otrzymały oceny 2,2,3,3,4,4,5,5 to

można mówić że występuje wariancja ocen- są one zróżnicowane od 2 do 5.

Uczniów tych przebadano testem inteligencji i okazało się, że uczniowie inteligentni

mają oceny 4,4,5,5 a mało inteligentni 2,2,3,3. Zatem wariancja (rozrzut danych) w grupach

jest mniejszy niż pierwotnie, pojawiła się za to wariancja (zróżnicowanie) między grupami.

Page 45: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 45

(średnia 2.5 vs średnia 4.5). Wariancję wewnątrzgrupową nazywamy wariancją błędu-

pozostaje ona niewyjaśniona. Nie wiemy czemu jeden uczeń o niskiej inteligencji uzyskał 2, a

inny zaliczył na 3. Wiemy natomiast skąd wzięła się różnica między średnimi grupowymi

(wariancja międzygrupowa). Jest ona związana z inteligencją.

Podzielmy teraz uczniów na wysokich i niskich. Oceny uczniów niskich to 2,3,4,5 a

wysokich 2,3,4,5. W tym przypadku wariancja wewnątrzgrupowa jest równie duża jak

pierwotna (cała) zaś wariancja międzygrupowa jest zerowa.

Wyjaśnianie zjawisk to zatem wyjaśnianie ich wariancji. Jeśli jedna ze zmiennych (np.

X) pozwala w pewnym stopniu przewidzieć oczekiwane wartości drugiej zmiennej Y

powiemy że zmienna X wyjaśnia określony procent wariancji zmiennej Y. Dlatego możemy

powiedzie że inteligencja pozwala wyjaśnić oceny szkolne a wysoki/niski wzrost na to nie

pozwala.

Ilościowe ustalenie tego procentu może przebiegać bardzo różnie w zależności od

rodzaju zmiennych i charakteru zależności.

10.3. Uncertainty management-czy zawsze rozwój nauki polega na

eliminacji wariancji?

Pozytywistyczna wizja nauki (współczesny wariant- idealizacyjna teoria nauki)

sprowadzała się do eliminowania niewyjaśnionej wariancji. Kolejne badania miały za zadaie

wyjaśniać oraz to bardziej subtelne efekty, aż wreszcie (w tzw. eksperymencie idealnym)

wariancja niewyjaśniona miała się sprowadzić do zera.

Jak już wspomniano natura zjawisk jest często probabilistyczna. Często przypadek lub

„czysty błąd pomiaru” wprowadzają wariancję zjawiska i eksperymentator nie jest w stanie

uchwycić przyczyny- ponieważ po prostu ona nie istnieje.

Czy zjawisko takie jest zawsze wadą badań naukowych, czy też może powinny one

akceptować tą przypadkowość?

Zastanówmy się najpierw jakie są przyczyny wariancji (zróżnicowania) wyników

badań:

Po pierwsze wariancja ma swoje źródło w różnicach między podmiotami. Badacz

może za pomocą odpowiednich współczynników różnice te opisać i wyjaśnić przez wpływ

różnych cech jednostki

Po drugie wariancja zjawisk bierze się z losowości próby- jeśli wylosujemy 30 osób,

otrzymamy próbę nieco różniącą się od każdej innej 30 osobowej próby. Wnioskowanie

statystyczne umożliwia ocenę tego źródła wariancji, o ile próba jest rzetelna.

Po trzecie źródłem wariancji mogą być zmienne zakłócające pomiar, aktualny stan

badanego podmiotu. Badacz planując eksperyment w kontrolowanych warunkach stara się

wyeliminować to źródło.

Po czwarte, źródłem wariancji zmiennej zależnej mogą (i powinny) być zmienne

niezależne, którym poświęcone jest badanie. Badacz planując eksperyment stara się jak

najdokładniej oszacować to źródło wariancji.

I wreszcie po piąte- źródłem zmienności wyników mogą być nieadekwatne założenia

teorii. Inaczej mówiąc, nowa teoria oparta na lepszych założeniach może tłumaczyć zjawisko

dokładniej. Jeśli zaś nowa teoria nie istnieje- obowiązkiem badacza jest odkrywanie słabych

punktów dotychczas przyjmowanej teorii.

Page 46: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 46

Ostatni punkt stoi w sprzeczności z pozytywistyczną wizją nauki. Zadaniem badacza

staje się bowiem nie tyle redukowanie niewyjaśnionej wariancji, co tworzenie niepewności,

stwarzanie warunków w których badane zjawisko okaże się bardziej niejasne niż w modelu

klasycznym.

Dlatego celem nauki jest nie tylko eliminowanie niewyjaśnionej wariancji, ale poprzez

stawianie wyzwań klasycznym teoriom wręcz jej tworzenie.

10.4. Wnioskowanie statystyczne.

Jedną z cech dobrej hipotezy jest to, że mówi ona o występowaniu zależności lub

różnic, a nie o ich braku. Obecnie przekonamy się, dlaczego jest to konieczne.

Wnioskowanie statystyczne jest wnioskowaniem „nie wprost”. Oznacza to że zamiast

dowodzić twierdzenie „Mężczyźni różnią się od kobiet w zakresie zmiennej Y” postaramy się

odrzucić twierdzenie mówiące o braku różnicy.

Wyróżniamy zatem tzw. Hipotezy robocze, mówiące o istnieniu zależności oraz

hipotezy zerowe, mówiące o ich braku. Hipotezy robocze dowodzimy przez odrzucenie

hipotez zerowych.

Hipotezy dotyczą oczywiście całych populacji, zaś dostępne są jedynie wyniki w

reprezentatywnych próbach.

Przyjmijmy dla uproszczenia że problem dotyczy porównania średniego nasilenia

cechy w dwóch populacjach- mężczyzn i kobiet.

Wnioskowanie w ogólnym zarysie (i w dużym uproszczeniu) przebiega następująco:

1. Zakładamy, że hipoteza zerowa (np. „Mężczyźni nie różnią się od kobiet w

zakresie zmiennej Y”) jest prawdziwa. Zwykle model ten uzupełniamy

kilkoma innymi założeniami- co do prawdziwości których jesteśmy

przekonani.

2. Wyliczamy średnie wartości Y w próbach pochodzących z obu populacji i

pewną miarę różnicy między nimi.

3. Oczekujemy, że jeżeli prawdziwa jest hipoteza zerowa, a zatem brak

różnic między populacjami, to również średnie w próbach

reprezentatywnych będą identyczne, a miara ich różnicy bliska zeru.

4. Jeśli wyliczona na podstawie prób miara różnicy jest duża- zachodzi

sprzeczność między założeniem a wynikami empirycznymi. Należy zatem

uszanować fakty i odrzucić hipotezę zerową (jako przesłankę wnioskowania-

jedyną wątpliwą).

(prawdziwa hipoteza zerowa) → (miara różnicy bliska zera)

Empirycznie: (miara różnicy jest daleka od zera)

Zatem:

Hipoteza zerowa jest fałszywa

Zatem mamy pełne prawo przyjąć hipotezę roboczą. Naturalnie niewielka różnica

średnich może być dziełem przypadku, i nie świadczyć o konieczności odrzucenia hipotezy

zerowej. Dlatego przyjmuje się pewną graniczną wartość. Jeśli więc prawdopodobieństwo

Page 47: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 47

uzyskania danej różnicy jest mniejsze od granicznej wartości (zwanej zakładanym poziomem

istotności, zwykle =0.05) odrzucamy hipotezę zerową. Poziom istotności zatem to

prawdopodobieństwo tego, że uzyskany efekt (różnica) jest dziełem przypadku.

Prawdopodobieństwo odrzucenia prawdziwej H0 wynosi (błąd I rodzaju)

Prawdopodobieństwo nie odrzucenia fałszywej H0 wynosi (błąd II rodzaju)

Poziom istotności to prawdopodobieństwo popełnienia błędu I rodzaju.

10.5. Wielkość próby

Uzyskanie przypadkowego wyniku jest oczywiście bardziej prawdopodobne w małej

próbie. Dobrze zatem posługiwać się dużymi próbami, gdyż wówczas mamy do czynienia z

mniejszym prawdopodobieństwem popełnienia błędów zarówno jak i .

Sytuacja nie jest jednak zupełnie jednoznaczna. Przypomnijmy sobie, że H0 mówi o

zupełnym braku różnic między populacjami. Jeśli więc różnica istnieje, lecz jest mała i

merytorycznie bez znaczenia (np. dwie populacje różnią się o 2 punkty ilorazu inteligencji),

pobierając dostatecznie dużą próbę losową możemy udowodnić, że różnica ta jest istotna.

W takim przypadku, oprócz standardowej procedury sprawdzania istotności różnic

należy zastosować dodatkowo wzór pozwalający wyliczyć procent wariancji zmiennej

zależnej wyjaśnionej przez zmienną niezależną.

Jeśli np. zmienna niezależna wyjaśnia 20% wariancji zmiennej zależnej, oznacza to że

w populacji osób o identycznych wartościach zmiennej niezależnej, wariancja zmiennej

zależnej zmniejszy się o 20% w porównaniu z wariancją w całej populacji.

Jeśli np. wariancja ogólna ocen szkolnych wynosi 2, i inteligencja wyjaśnia 25%

wariancji ocen szkolnych, to w grupie osób o jednakowej inteligencji wariancja ocen

szkolnych wyniesie 1,5.

Naturalnie używana w powyższych przykładach hipoteza o różnicy średnich to tylko

jedna z wielu jakie można weryfikować w drodze statystycznej.

10.6. Problem reprezentatywności próby.

Podstawowym założeniem analiz statystycznych jest dobór reprezentatywnej próby.

Aby dane uzyskane w próbie można było uogólnić na całą populację próba musi

odzwierciedlać jej skład. Powinna zatem być pobrana w sposób losowy i dostatecznie liczna.

Trudno dobrać próbę sensownej wielkości odzwierciedlającą strukturę populacji pod

względem wszystkich zmiennych. Toteż zwykle, w drodze tzw. losowania warstwowego

dobiera się próbę tak, aby jej struktura odpowiadała strukturze populacji pod względem

zmiennych ubocznych ważnych dla badanego tematu.

W praktyce często wystarcza jeśli badacz uczciwie dobiera próbę w sposób

nietendencyjny.

Próba reprezentatywna w badaniu dotyczącym jednego tematu, może być kompletnie

niereprezetatywna w zakresie innego tematu. Np. badając zagadnienia psychofizjologiczne

Page 48: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 48

można oprzeć się na wynikach próby złożonej ze studentów psychologii. Kiedy chcemy badać

zagadnienia empatii czy spostrzegania społecznego, taka próba będzie silnie tendencyjna.

Przy okazji warto zastanowić się nad reprezentatywnością badań przez Internet.

- Istnieje możliwość uzyskania potencjalnie dużej próby,

- dotarcia do osób o specjalnej charakterystyce- np. osoby z cukrzycą

w wieku 20-30 lat, o IQ powyżej 130 będące ofiarami przestępstwa.

- Badania takie niewiele kosztują, łatwo wprowadzić korekty

procedury po fazie pilotażu,

- pełna dowolność udziału w badaniu,

Wady eksperymentu prowadzonego przez Internet:

- różnice w procedurze badawczej zależne od użytkowanego sprzętu,

- niereprezentatywność próbki dla populacji generalnej (np. wśród

użytkowników Sieci większość stanowią mężczyźni)

- brak wpływu na selekcję osób badanych, konieczność kontroli

możliwości dwukrotnego udziału tych samych osób.

- problemy związane z motywacją (większa ilość rezygnacji w trakcie

eksperymentu w porównaniu z badaniem klasycznym),

- brak możliwości bezpośredniego wyjaśnienia osobie badanej

ewentualnych wątpliwości.

- Po pierwsze trudno czasem utrzymać motywację uczestników.

Początkowe zainteresowanie tematyką często ustępuje znużeniu,

kiedy badany musi zaznaczać odpowiedzi na kilkadziesiąt lub więcej

pytań. Kiedy następnie pojawia się na ekranie kolejna, jeszcze

dłuższa partia materiału- dalsza praca wymaga dużego samozaparcia.

Generalnie, należy zdawać sobie sprawę z trudności wynikających z użycia Internetu

w badaniach, ale także z ogromnych możliwości jakie daje to narzędzie.

Page 49: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 49

Wykład 11. Planowanie Eksperymentów

Ciekawy tekst nt. historii eksperymentów psychologicznych:

http://www.comnet.ca/~pballan/PsyExpers.htm

Jeśli chcesz wziąć udział w eksperymencie przez Sieć:

http://www.psychologie.unizh.ch/sowi/Ulf/Lab/WebExpPsyLab.html

11.1. Przykład

Przykładem ilustrującym zasadnicze rodzaje badań psychologicznych niech będą trzy

badania, weryfikujące następujące hipotezy:

A. Czas czytania tekstu przez mężczyzn jest inny niż czas czytania tekstu przez

kobiety

B. Czas czytania tekstu zależy od jasności oświetlenia

C. Czas czytania tekstu zależy od tego, czy osoba badana jadła śniadanie.

Każde z tych trzech badań może być przeprowadzone w identycznym schemacie

analizy danych-porównania średniego czasu czytania tekstu w dwóch grupach. Identyczna jest

zmienna zależna-czas czytania tekstu. Różnią się one jednak zasadniczo, jeśli weźmiemy pod

uwagę status zmiennej niezależnej.

11.2. Badanie korelacyjne.

W przypadku A. zmienna niezależna stanowi stałą charakterystykę osoby badanej.

Badacz nie ma żadnej możliwości manipulowania tą zmienną. Może jedynie rejestrować

współwystępowanie pomiędzy określoną płcią a szybszym czytaniem tekstu.

Tego typu badanie nazywa się badaniem korelacyjnym. Należy podkreślić że nie

wiąże się to z koniecznością stosowania analizy korelacyjnej jako zasadniczej metody analizy

danych. Badanie to nie daje badaczowi żadnej możliwości manipulacji zmienną Schemat

badania nie może być podstawą do wyciągania wniosków o zależności przyczynowo-

skutkowej. Jak była już mowa wcześniej w wykładzie poświęconym zależnościom pomiędzy

zmiennymi, zarówno zmienna X może być przyczyną Y, jak i Y przyczyną X. Może także

wchodzić w grę trzecia zmienna Z stanowiąca przyczynę zarówno X jak Y. Oczywiście w

przykładzie twierdzenie Płeć jest zdeterminowana przez szybkość czytania jest absurdalne-

niemniej kierunek zależności wynika z tego co skądinąd wiemy o naturze badanych

zmiennych, nie wynika bezpośrednio z badania.

11.3. Badanie quasi-eksperymentalne

W przypadku C również badacz nie manipuluje zmienną niezależną- niektóre z osób

badanych zjadły śniadanie, inne nie- i zależy to od czynników losowych, a nie od badacza.

Jednak w odróżnieniu od poprzedniej sytuacji zmienna niezależna nie stanowi trwałej

charakterystyki badanych osób, lecz jest zdarzeniem losowym, niezależnym od badacza.

Badacz wykorzystuje to zdarzenie chociaż nie wpływa na jego wywołanie. Może traktować je

jako przypadkowe, jednak jeśli chce pokusić się o interpretację przyczynowo-skutkową musi

zastanowić się czy na wywołanie zdarzenia nie miała wpływu inna zmienna ważna dla

zmiennej zależnej (np. niejedzenie śniadania może być skorelowane z małą ilością snu).

Page 50: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 50

11.4. Badanie eksperymentalne

Wreszcie w sytuacji B badacz ma pełną kontrolę nad zmienną niezależną. Może

dowolnie regulować oświetlenie przy którym badani czytać będą tekst. Osoby badane mogą

zostać losowo podzielone na grupy czytające tekst przy słabym bądź silnym oświetleniu.

Badanie takie stanowić będzie zasadniczy przedmiot dalszych rozważań. Wg Brzezińskiego

model eksperymentalny zakłada

1. Manipulację co najmniej jedną zmienną niezależną główną;

2. Kontrolowanie pozostałych zmiennych niezależnych ubocznych i zakłócających;

3. Pomiar zmiennej zależnej.

Manipulacja zmienną niezależną główną może być dokonywana przez losowy podział

na grupy którym przypisane są poszczególne wartości zmiennej niezależnej (inaczej mówiąc,

chodzi o losowe przypisanie osobom badanym poziomów zmiennej niezależnej) Jest to

określane jako randomizacja II stopnia.

W pierwszym etapie randomizacji (randomizacja I stopnia) z populacji pobierana jest

próba reprezentatywna. W drugim etapie dopiero członkowie próby dzieleni są losowo do

grup eksperymentalnych. Pozwala to wierzyć, iż poszczególne grupy są równoważne pod

względem badanych zmiennych. W przykładzie C, gdyby badacz zastosował losowy podział

na jedzących i niejedzących śniadanie mógłby mieć nadzieję że w obu grupach znajdzie się

podobna liczba osób niewyspanych.

Konstrukcja badania eksperymentalnego powinna być adekwatna do stawianej

hipotezy. Zatem badacz winien dążyć do maksymalizacji wariancji międzygrupowej i

minimalizacji wariancji wewnątrzgrupowej.

Klasyczny schemat eksperymentu zakłada dwukrotny pomiar zmiennej zależnej Y w

grupie eksperymentalnej, w której badacz zastosował bodziec eksperymentalny (zadziałał

zmienną niezależną X) oraz grupę kontrolną, w której nie podjął żadnych działań poza

dwukrotnym pomiarem Y. Ponieważ grupy różnią się między sobą jedynie X, zatem wszelka

rozbieżność między wynikami pomiaru w grupach może być interpretowana jako efekt

działania zmiennej niezależnej.

Pytanie o trafność planu eksperymentalnego to pytanie o to, jakie wnioski można z

niego poprawnie wyciągnąć. W praktyce badawczej dochodzi niekiedy do artefaktów- badacz

przypisuje działaniu zmiennej eksperymentalnej wywołanie zjawiska, którego źródło leży

gdzie indziej. Mówimy wówczas o zakłóceniu trafności wewnętrznej.

11.5. Czynniki zakłócające trafność wewnętrzną.

Pierwszy z nich to historia. Terminem tym określa się te zdarzenia losowe, które nie

były kontrolowane przez badacza, a które wpłynęły na wynik eksperymentu.

Yp1 Yk1

Yk2 Yp2

X

Page 51: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 51

Dojrzewanie jest to spontaniczny rozwój organizmu w trakcie badań. Ma to

szczególne znaczenie w przypadku badań z dziedziny psychologii rozwojowej oraz zjawisk o

dużej dynamice czasowej.

Testowanie polega na uczeniu się przez badanych procedury pomiaru zmiennej

zależnej. Jeśli pomiar ten może zależeć od wprawy- wówczas naturalnie drugi test wypadnie

lepiej.

Selekcja to dobór niejednorodnych grup badanych. Niekiedy po preteście dokonuje się

korekty składu grup, aby uniknąć tego źródła błędu. Dobry wynik przynosi również

zwiększenie liczebności próby.

Więcej informacji o błędach zaburzających trafność wewnętrzną znaleźć można w

pracach J. Brzezińskiego.

Page 52: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 52

Wykład 12. Trafność zewnętrzna planów eksperymentalnych i alternatywne schematy badawcze

12.1. Trafność zewnętrzna eksperymentu

Czynniki zakłócające trafność zewnętrzną mają inną naturę. W tym przypadku w

samym eksperymencie istotnie zadziałała zmienna niezależna zgodnie z intencją badacza,

jednak wyniku tego nie można zgeneralizować na ogół populacji.

Błąd taki popełnia badacz bądź lekceważąc randomizację I stopnia

(niereprezentatywna próba) bądź też dobierając niewłaściwy zakres zmiennej niezależnej. W

typowym przykładzie krzywoliniowej zależności między motywacją a osiągnięciami badacz

w zależności od tego, czy skorzysta z porównania grup A i B, B i C czy A i C dojdzie do

zupełnie przeciwstawnych wniosków.

Trzeci rodzaj błędów zakłócających trafność zewnętrzną eksperymentu to interakcje

wcześniej omawianych błędów zaburzających trafność wewnętrzną z czynnikiem

eksperymentalnym. Np. efekt testowania w interakcji z bodźcem eksperymentalnym sprawia,

że badany nie reaguje tylko na bodziec, ale na bodziec w kontekście pretestu. Pretest niejako

uprzedza go i nastawia na bodziec eksperymentalny. W takim eksperymencie zmianę wartości

zmiennej zależnej przypisać można istotnie bodźcowi eksperymentalnemu (zachowana jest

więc trafność wewnętrzna) jednak efekt ten jest modyfikowany przez pretest, nie wiadomo

zatem jak zachowali by się badani którzy nie mieli do czynienia z pretestem.

12.2. Alternatywne schematy (plany) eksperymentalne

Aby uniknąć powyższych błędów badacze często modyfikują schemat klasyczny.

Ponieważ ostatni z omówionych błędów (interakcja testowania i bodźca eksperymentalnego)

jest wynikiem pretestu, można rozważyć schemat bez pretestu:

A C

B

Yk1

Yk2

X

Page 53: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 53

Schemat ten narażony jest silnie na błąd selekcji, ponieważ nie można go kontrolować

porównując wyniki pierwszego badania. Wymaga zatem zastosowania licznych grup i

szczególnie starannego ich doboru.

Niekiedy jednak uniknięcie błędu selekcji jest szczególnie trudne, gdy np. badania są

pracochłonne i muszą być ograniczone do małej próby, lub trudno jest wprowadzić grupę

kontrolną (np. w badaniach nad psychoterapią- należałoby zaproponować alternatywną

„nieterapeutyczną” procedurę dla grupy kontrolnej). Wówczas rozwiązaniem może być

schemat bez grupy kontrolnej:

Schemat taki narażony jest w dużym stopniu na błędy testowania, historii, dojrzewania

oraz interakcji pretestu z bodźcem eksperymentalnym. Mimo tak imponującej liczby wad jest

jednak często stosowany. W wielu badaniach zwłaszcza o charakterze laboratoryjnym

możliwe jest jego wykorzystanie, choć badacz musi przez konstrukcję odpowiedniej

procedury badawczej zminimalizować wpływ wspomnianych źródeł błędu. Bardzo często jest

to jednak łatwiejsze niż uzyskanie dobrej grupy kontrolnej.

Schemat logicznie najdoskonalszy, jednak ze względu na dużą pracochłonność rzadko

stosowany w praktyce to schemat Solomona. Stanowi on połączenie schematów klasycznego i

bez pretestu

Analiza efektów w poszczególnych grupach pozwala na określenie jakiego typu błędy

eksperymentalne występują w przypadku danej procedury. Schemat ten może mieć duże

zastosowanie w badaniach których celem jest oszacowanie wpływu czynników zakłócających

w danym typie eksperymentów. Więcej szczegółów znaleźć można w pracy Brzezińskiego

(Brzeziński 1997, strony 328-332)

Tam też omówionych jest kilka dalszych planów eksperymentalnych.

Yp1 Yk1

X

Yp1 Yk1

Yk2 Yp2

X

Yk3

Yk4

X

Page 54: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 54

Wszystkie plany badawcze opracowane dla badań eksperymentalnych mogą też mieć

zastosowanie w badaniach quasi-eksperymentalnych, gdy nie ma możliwości manipulacji

zmienną eksperymentalną. Należy jednak pamiętać o trudnościach w interpretacji zależności

przyczynowo-skutkowych.

12.3. Metody kontroli zmiennych ubocznych

Badacz powinien kontrolować w badaniu zmienne uboczne, to znaczy umieć

oszacować lub wyeliminować ich wpływ na relację między zmienną niezależną główną i

zmienną zależną. Istnieje kilka możliwości takiej kontroli.

1. Ograniczenie zakresu zmiennej. Np. decydujemy się na badanie jedynie

mężczyzn lub osób o średniej inteligencji. Jeśli próba będzie jednorodna-

zmienna kontrolowana nie będzie wpływać na wyniki badania, jednak

wnioski będą musiały być również ograniczone do takiej populacji.

2. Wbudowanie w plan eksperymentalny. Np. badanie wg schematu

klasycznego analizujemy osobno dla grupy mężczyzn i kobiet. W takiej

sytuacji oceniać będziemy interakcyjny wpływ badanych zmiennych

niezależnych na zmienną zależną.

3. Kontrola statystyczna- przy zastosowaniu specjalnych procedur, np. analizy

kowariancji, korelacji cząstkowej itp.

4. Dobór celowy- badacz odchodzi od pełnej randomizacji II stopnia, ingerując

w skład grup. Ingerencja ta może polegać na

a. Doborze grup w taki sposób, aby rozkład ubocznych zmiennych istotnych

dla badacza był identyczny jak w populacji.

b. Wyrównaniu poziomu zmiennej zależnej po preteście

c. Doborze parami- do każdej osoby w grupie eksperymentalnej dobierana

jest osoba do niej podobna pod względem kilku zmiennych, np. tej samej

płci, w tym samym wieku i z podobnym wykształceniem.

12.4. Źródła artefaktów

Prawidłowe badanie, aby uniknąć wpływu oczekiwań badacza na wyniki powinno

rozdzielać funkcje osoby planującej badanie, eksperymentatora (prowadzącego)

oraz osoby analizującej dane. Każda z tych osób może jednak spowodować szereg

zakłóceń trafności badania.

Osoba planująca badanie:

Badacz posiada swój paradygmat, sposób widzenia problemu. Rzutuje on na sposoby

przeprowadzenia badania, sformułowanie pytań, pomijanie alternatywnych hipotez

wyjaśniających zjawisko.

Tendencja do utrzymywania hipotez potwierdzających własny model.

Badacz powinien znać alternatywne teorie zjawisk i być świadomy własnych

przekonań, w tym ukrytych teorii.

Page 55: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 55

Eksperymentator (prowadzący badanie)

Jego cechy osobowości mogą wpływać na dane uzyskane w wywiadach

Nieprzestrzeganie zasad procedury eksperymentalnej, np. stosowanie badań

grupowych w miejsce indywidualnych, niebezpośrednie zbieranie danych.

Wzmacnianie oczekiwanych zachowań, werbalne lub niewerbalne

nieprawidłowe rejestrowanie danych (pomyłki), lub ich fałszowanie w celu

wcześniejszego zakończenia badań.

wpływ oczekiwań, np. przekonanie o ważności sprawdzanej hipotezy.

dobór próby, np. dobieranie wśród osób znajomych

zmiana miejsca badania, np. tendencja do wybierania miłych domów albo nie

wchodzenia na ostatnie piętra

Badacz powinien zadbać o dobre przeszkolenie eksperymentatora w procedurze badania,

ale nie wprowadzać go w swoje hipotezy. Jego praca powinna być sprawdzana.

Błędy podczas analizy danych.

Pomijanie sprawdzania założeń metod statystycznych, używanie zbyt małych prób.

Wybór łatwiejszych metod analizy, np. stosowanie metod dostępnych w pakiecie

statystycznym.

Słaba znajomość procedury obliczeń.

Nadużywanie technik wielozmiennowych.

Formułowanie post hoc hipotez kierunkowych (gdy kierunek zależności nie wynika z

przesłanek, ale użycie testu jednostronnego pozwala udowodnić istotność).

Pomijanie informacji o wynikach nieudanych

Osoba analizująca dane powinna znać nie tylko statystyką, ale i częściowo dziedzinę

której dotyczą badania. Musi znać oprócz pakietów statystycznych również istotę

stosowanych wzorów. Powinna mieć dobrą orientację w stosowanych technikach

badawczych.

Page 56: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 56

Wykład 13. Procedura Ex post facto (EPF)

W badaniu wg schematu ex post facto zadaniem badacza nie jest wywołanie zjawisk,

jak w przypadku badań eksperymentalnych lecz wyjaśnienie przyczyn zjawisk które już

zaszły. Istnieje wiele zjawisk (zaburzenia psychiczne, przestępczość itd.) które z przyczyn

metodologicznych lub etycznych nie mogą być badane na drodze eksperymentalnej.

W takim wypadku badacz wyszukuje grupy różniące się pod względem badanej

zmiennej zależnej Y (a więc maksymalizuje jej wariancję) a następnie stara się możliwie

dokładnie zbadać różnice między tymi grupami. Opis dwóch wariantów metody znaleźć

można w pracy Brzezińskiego

(Brzeziński 1997, ss.431-442).

Procedura EPF w wariancie eksploracyjnym polega na wyszukaniu maksymalnej

ilości zmiennych mogących różnicować grupę w której zjawisko Y wystąpiło od grupy

kontrolnej.

Zasadniczą techniką badawczą jest wywiad, ponieważ zmienne niezależne działały

wcześniej, przed pojawieniem się zjawiska Y. Badacz jeśli stosuje np. test osobowości musi

zdawać sobie sprawę, że mierzona zmienna może być zarówno następstwem, jak i przyczyną

zmiennej niezależnej Y. Dlatego stosowanie testów dopuszczalne jest jedynie wówczas, kiedy

dotyczy cech zasadniczo trwałych, nie podlegających zmianom pod wpływem środowiska

(temperament, niektóre zdolności). Podobne ograniczenia dotyczą metod obserwacyjnych.

Po stwierdzeniu różnic badacz powinien oczyścić uzyskany obraz zależności z

zależności pozornych. Jeśli stwierdza się różnicę w subiektywnie odczuwanym lęku i

występowaniu objawów psychosomatycznych- prawdopodobnie druga różnica może być

wyjaśniona przez pierwszą, i nie stanowi niezależnego odkrycia.

Drugi typ procedury EPF to procedura konfirmacyjna. Zasadniczą różnicą między

pierwszym a drugim typem badania jest sformułowanie szczegółowych hipotez dotyczących

zależności.

Page 57: Dr Adam Tarnowski - psychologia.pl file– King, B., Minium, E.W. (2009) "Statystyka dla psychologów i pedagogów", Warszawa: PWN Egzamin testowy będzie obejmował treść wykładu

Adam Tarnowski Metodologia badań psychologicznych 57

Wykład 14. Etyka badań naukowych

Brzeziński 1997, ss. 131-135, 175-178,