2018.1.30(화)
일단 논문을 보다가 표를 보면 그래프를 그려 본다.
Relative Risk 라든지, Odds ratio , 그리고 또 다른 Effect size 중 하나인 Cohen's d 와 같은 것은 그래프로 표현할 때는 따로 고려하지 않아도 된다.
그저 95% CI(Confidence interval) 을 그림에 그려 주는데 0과 1을 그래프에 표시해 둔다.
여기서 RR, OR 등을 기준으로 1이라고 하는 것은 우리가 관찰하고자 하는 군과 대조군 사이에 차이가 없다는 것으로서 일종의 귀무가설과 같다.
이 1을 통과하는 그래프가 그려진다면 그 실험은 유의미하지 않을 것이다.
제시된 p 값만 보는 것보다 CI 는 더 많은 것을 알려 주기 때문에 더 유용하다.
1을 중심으로 양측에 거의 대칭을 이루고 있는 그래프가 그려진다면 그 실험은 잘 설계된 것일 것이고, 대칭이 더욱 정확할 수록 P 값은 더 높게 나올 것이다.
__________________________________________________________________________________________________________________________
Post hoc test 는 우리가 기존에 이 실험을 통해서 알고자 했던 값인 1차 결과가 아니라, 모아둔 data 를 가지고 2차 결과들을 보는 검사라고 볼 수 있다.
__________________________________________________________________________________________________________________________
표에 제시된 F 값은 결국 회귀분석을 유추할 수 있게 도와준다. 그 옆에 model 들이 다양하게 적혀 있는데 아마 여러 가지 변수들을 controlled 시켜 놓고, 우리가 알고자 하는 '변수'만을 관찰해 보면서 결과 값의 변화 양상을 관찰하는 것이다.
_________________________________________________________________________________________________________________________
P 값이 0.05 보다 작아야 유의미하지만 0.05~0.1 사이 정도 값이 나오면 유의미하지는 않지만 일종의 경향성이 있는 정도는 되므로 의미가 아주 없는 건 아니다. 이런 기준들이 다소 임의적으로 보일 수 있지만, 간과할 수 없는 요인들이다.
_________________________________________________________________________________________________________________________
NNT나 NNH 개념은 잘 알아두는 게 좋다. NNT는 Number needed to treat의 약자로서 이 값이 작을 수록 효과 크기는 더 커진다고 볼 수 있는 것이다. 가령 항우울제의 치료 효과를 보고자 하는데 NNT가 5로 나온다면 5명의 환자에게 약을 주면 그 중 한명에선 약이 효과를 보인다는 것이다. NNH는 Number needed to harm 의 약자로서 이 값이 5라면 5명의 환자에게 항우울제를 주면 그 중 1명 정도는 자살 사고가 있다거나 할 때 활용 가능한 값이다.
일반적으로는 NNT 의 값이 크냐, 작냐를 가지고 효과 크기를 보겠지만 NNT 에서 Treat 의 대상 자체도 고민해 봐야 한다. 어떤 환자에겐 치료가 그 환자를 살리고 죽이는 문제일 수 있고, 다른 치료에서는 그 정도 무게를 지니진 않고 그저 좀 도움이 되는 정도라면 그 땐 NNT 값만 가지고 둘을 비교하는 건 무리다.
어떤 경우에는 NNT가 100이 넘어가더라도 한번 걸렸다 하면 사람이 죽는 문제라면 그건 의미가 있는 거고, 어떤 경우에는 NNT가 5로 낮게 나왔다 하더라도 큰 의미가 없는 효과일 수도 있으니까 말이다.
__________________________________________________________________________________________________________________________
통계학에서는 왜 바로 대립가설을 검증하지 않고, 일단 귀무가설(H0)을 세워 놓고 이것이 기각되는지 그렇지 않은지를 보는 방식으로 가설을 검증하는 것일까?
-> 과학이란 무엇인가? 라는 과학철학적 질문과 맞닿아 있다.
-> 실증주의 학파(빈 학파 등) 등은 실증주의를 주창하고, 귀납적으로 문제에 접근하길 원했으나 18세기 데이비드 흄이 제기했던 귀납의 문제를 고민해 봐야 한다. 즉, 여러 가지 관찰 사례만 가지고 일반화된 결론을 도출하는 건 불가능하기 때문이다. 우리가 확실히 말할 수 있는 건 그 이론이 잘못되었느냐에 관한 것이지, 그 이론이 옳은지는 입증할 방법이 없다.
-> 그래서 나온 것이 칼 포퍼의 '반증주의'다.
통계학에서 이와 같은 방식을 차용한 것이다.
(그러나, 문제도 있다. '반중'이 안 되는 논리도 많다. 가령 동전을 던져서 앞면이 나올 확률은 1/2 이다. 라고 말하는 확률적 진술은 반증할 수 없을 것이다. 그리고 뉴턴도 물리학을 정립할 때, 반증을 활용하지 않고 굵직한 이론들을 많이 내었다. 그러면 뉴턴의 과학도 사이비 과학일까?)
※ 모든 이미지는 구글에서 가져왔습니다.
'통계학' 카테고리의 다른 글
[통계학] ANOVA, ANCOVA, Kruskal-Wallis H test, 카이 제곱 검정 (0) | 2018.11.21 |
---|---|
[통계학] 의학 통계 공부하면서 정리해 본 것들 (0) | 2018.11.21 |
[통계학] 의학 통계를 공부하면서 몇 가지 정리한 내용 (0) | 2018.11.19 |
WRITTEN BY
- 케노시스
다양한 주제의 이야기들을 나누는 공간입니다.