Skip to main content
Top

1999 | OriginalPaper | Hoofdstuk

3. Overeenstemming bij Medische Beoordelingen

Auteur : Dr. Hubert J. A. Schouten

Gepubliceerd in: Klinische statistiek

Uitgeverij: Bohn Stafleu van Loghum

share
DELEN

Deel dit onderdeel of sectie (kopieer de link)

  • Optie A:
    Klik op de rechtermuisknop op de link en selecteer de optie “linkadres kopiëren”
  • Optie B:
    Deel de link per e-mail

Abstract

Wanneer een patiënte door een arts wordt onderzocht, is het wenselijk dat de bevindingen (diagnose, Symptomen) niet anders uitvallen dan wanneer zij door een andere arts wordt onderzocht. Het boezemt geen vertrouwen in als artsen onderling ernstig van mening verschillen. Ze kunnen dan immers niet allemaal gelijk hebben. In experimenteel onderzoek kunnen verschillen tussen therapieën onduidelijk blijven door een onbetrouwbare beoordeling van het bereikte effect, maar ook door een onbetrouwbare beoordeling van toelatingscriteria en belangrijke prognostische factoren. In niet-experimenteel onderzoek moet rekening worden gehouden met de belangrijkste prognostische factoren, maar de daarvoor beschikbare statistische technieken werken alleen goed als deze prognostische factoren (vrijwel) foutloos kunnen worden vastgesteld. De waarde van beoordelingen, zowel voor de dagelijkse medische praktijk als voor wetenschappelijk onderzoek, kan aanzienlijk toenemen wanneer de onderlinge overeenstemming tussen beoordelaars merkbaar wordt verbeterd, ofschoon zelfs volledige overeenstemming tussen beoordelaars niet garandeert dat de betreffende beoordelingen enige waarde hebben.
Literatuur
go back to reference Spodick DH (1975) On experts and expertise: The effect of variability in observer perform ance. The American Journal of Cardiology 36, 592–596.CrossRefPubMed Spodick DH (1975) On experts and expertise: The effect of variability in observer perform ance. The American Journal of Cardiology 36, 592–596.CrossRefPubMed
go back to reference Holmquist ND, McMahan CA and Williams OD (1967) Variability in Classification of Carcinoma in situ of the uterine cervix. Archives of Pathology 84, 334–345.PubMed Holmquist ND, McMahan CA and Williams OD (1967) Variability in Classification of Carcinoma in situ of the uterine cervix. Archives of Pathology 84, 334–345.PubMed
go back to reference Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20, 37–46.CrossRef Cohen J (1960) A coefficient of agreement for nominal scales. Educational and Psychological Measurement 20, 37–46.CrossRef
go back to reference Fleiss JL (1981) Statistical Methods for Rates and Proportions. New York: Wiley. Fleiss JL (1981) Statistical Methods for Rates and Proportions. New York: Wiley.
go back to reference Landis JR and Koch GG (1977) The measurement of observer agreement for categorical data. Biometrics 33, 159–174.CrossRefPubMed Landis JR and Koch GG (1977) The measurement of observer agreement for categorical data. Biometrics 33, 159–174.CrossRefPubMed
go back to reference Schouten HJA (1985) Statistical Measurement of Interobserver Agreement. Proefschrift Rotterdam. Schouten HJA (1985) Statistical Measurement of Interobserver Agreement. Proefschrift Rotterdam.
go back to reference Cohen J (1968) Weighted kappa: Nominal scale agreement with provision for scaled disagree ment or partial credit. Psychological Bulletin 70, 213–220.CrossRefPubMed Cohen J (1968) Weighted kappa: Nominal scale agreement with provision for scaled disagree ment or partial credit. Psychological Bulletin 70, 213–220.CrossRefPubMed
go back to reference Schouten HJA (1993) Estimating kappa from binocular data and comparing marginal probabilities. Statistics in Medicine 12, 2207–2217.CrossRefPubMed Schouten HJA (1993) Estimating kappa from binocular data and comparing marginal probabilities. Statistics in Medicine 12, 2207–2217.CrossRefPubMed
go back to reference Schouten HJA (1982) Measuring pairwise interobserver agreement when all subjects are judged by the same observers. Statistica Neerlandica 36, 45–61.CrossRef Schouten HJA (1982) Measuring pairwise interobserver agreement when all subjects are judged by the same observers. Statistica Neerlandica 36, 45–61.CrossRef
go back to reference Schouten HJA (1986) Nominal scale agreement among observers. Psychometrika 51, 453–466.CrossRef Schouten HJA (1986) Nominal scale agreement among observers. Psychometrika 51, 453–466.CrossRef
go back to reference Dunn G (1989) Design and Analysis of Reliability Studies: The Statistical evaluation of measurement errors. New York: Oxford University Press. London. Edward Arnold. Dunn G (1989) Design and Analysis of Reliability Studies: The Statistical evaluation of measurement errors. New York: Oxford University Press. London. Edward Arnold.
go back to reference Flack VF, Afifi AA, Lachenbruch PA and Schouten HJA (1988) Sample size determinations for the two rater kappa statistic. Psychometrika 53, 321–325CrossRef Flack VF, Afifi AA, Lachenbruch PA and Schouten HJA (1988) Sample size determinations for the two rater kappa statistic. Psychometrika 53, 321–325CrossRef
Metagegevens
Titel
Overeenstemming bij Medische Beoordelingen
Auteur
Dr. Hubert J. A. Schouten
Copyright
1999
Uitgeverij
Bohn Stafleu van Loghum
DOI
https://doi.org/10.1007/978-90-313-9661-0_3