ෆ්ලයිස්ගේ කැපා විශ්ලේෂණය

විකිපීඩියා, නිදහස් විශ්වකෝෂය වෙතින්
Jump to navigation Jump to search

ෆ්ලයිස්ගේ කැපා (ජොසෆ් එල්. ෆ්ලයිස්ගෙන් පසු නම් කරන ලද)සංඛ්‍යාතිය වූ කලී, යම්කිසි අයිතම ගණනකට හෝ වර්ගීකරණය කරන්නා වූ අයිතමයන්ට ඒකාන්ත ඇගයුම් (categorical ratings) පවරද්දී, යම්කිසි නියත තක්සේරු කරන්නන් (raters)සංඛ්‍යාවක් අතර පවත්නා "එකඟතාවයේ විශ්වසනීයත්වය" (reliability of agreement) තක්සේරු කරන්න වූ සංඛ්‍යානයේ එන මිනුමකි. තක්සේරු කරන්නන් දෙදෙනෙකුගේ එකඟතාවය තක්සේරු කිරීමට ගන්නා කොහෙන්ගේ කැපා සංඛ්‍යාතිය (Cohen's Kappa) වැනි කැපා සංඛ්‍යාතියන්ගෙන්, මෙම ෆ්ලයිස්ගේ කැපා සංඛ්‍යාතිය පැහැදිලි වෙනසක් දක්වයි. අහඹු ලෙස කුමක් බලාපොරොත්තු විය හැක්කේද යන්නට වඩා ඒකාන්ත එකඟතාව කුමන මට්ටමකට අත්තේද යන්න මෙම ෆ්ලයිස් කැපා සංඛ්‍යාතියෙන් දක්වන අතර එය සෑම විටම 1 හා 0 අතර අගයක් ගනී. මෙහිදී, විශේෂත්වය මැනීමේ සාධාරණ මිනුමක් නොමැතිමුත්, ඒ සඳහා යම් නිර්දේශ කීපයක් ඉදිරිපත් කොට තිබේ.

ද්වීමය හෝ ඉතා සුලු පරිමාණ ඇගයුම් සඳහා පමණක් ෆ්ලයිස් කැපා විශ්ලේෂණය භාවිත කල හැක. මෙහි, පිළියෙල කරන ලද ඒකාන්ත ඇගයුම් සඳහා භාවිත කල හැකි අනුවාදයක් දැනට නොපවතී.

හැදින්වීම[සංස්කරණය]

ෆ්ලයිස් කැපා යනු, තක්සේරු කරන්නන්ගේ අන්තර් විශ්වාසනීයත්වයහි (inter-rater reliability)[1] ඇගයීම උදෙසා සංඛ්‍යානයේ එනු ලබන මිනුමක් වූ "ස්කොට්ගේ ෆයි අගයෙහි" (Scott's pi)[2] සාධාරණීකරනයකි. එය කොහෙන්ගේ කැපා )සංඛ්‍යාතියටද සම්බන්ධයක් දක්වයි. ස්කොට්ගේ ෆයි අගය සහ කොහෙන්ගේ කැපා )සංඛ්‍යාතිය තක්සේරු කරන්නන් දෙදෙනෙක් සඳහා පමණක් යෙදිය හැකි වූවත්, ෆ්ලයිස්ගේ කැපා )සංඛ්‍යාතිය අයිතම නියත )සංඛ්‍යාවකට, ඒකාන්ත ඇගයුම් ලබා දීමට සමත්ය. මෙය, තක්සේරු කරන්නන්ගේ එකඟතාවයන්හි නිරීක්ෂිත ප්‍රමාණය, තක්සේරු කරන්නන් තම ඇගයුම් මුලුමනින්ම අහඹු ලෙස සිදු කලහොත් බලාපොරොත්තු විය හැකි ප්‍රමාණය, කොපමණ දුරකට ඉක්මවා යයිද යන්න විස්තර කිරීමක් ලෙස පහදා දිය හැක. එකම හා සමාන තක්සේරු කරන්නන් දෙදෙනෙක් යම්කිසි අයිතම රාශියක් අගයන බව කොහෙන්ගේ කැපා සංඛ්‍යාතියෙන් උපකල්පනය කරද්දී, තක්සේරු කරන්නන් නිශ්චිත ප්‍රමාණයක් (උදා: 3ක්) සිටියදී පවා එකිනෙකට වෙනස් අයිතමයන් එකිනෙකට වෙනස් පුද්ගලයින් විසින් තක්සේරූ කරන බව ෆ්ලයිස්ගේ කැපා සංඛ්‍යාතිය විසින් විශේෂයෙන්ම උපකල්පනය කරයි (ෆ්ලයිස්, 1971, පි378). එනම් අයිතම අංක 1 - A, B, C යන තක්සේරු කරන්නන් විසින් තක්සේරු කරද්දී අයිතම අංක 2 - D, E, F යන තක්සෙරු කරන්නන් විසින් තක්සේරු කළ හැක.

එකඟතාව මෙලෙස සිතිය හැක.මිනිසුන් නිශ්චිත සංඛ්‍යාවක් යම් අයිතම සංඛ්‍යාවකට, සංඛ්‍යාත්මක වශයෙන් ඇගයුමක් පවරයි නම් කැපා සංඛ්‍යාතිය විසින් එම ඇගයුම් කොපමණ ස්ථාවරදැයි මිනුමක් සපයයි.කැපා සංඛ්‍යාතිය පහත ආකාරයට අර්ථ දැක්විය හැක,

(1)

ඉහත අවස්ථාව ලඟා කර ගැනීමේ එකඟතාවයෙහි ප්‍රමාණය සාධකය මගින් ලබාදෙන අතර, ඉහත අවස්ථාව සත්‍ය වශයෙන්ම ලඟා කරගත් එකඟතාවයෙහි ප්‍රමාණය මගින් ලබා දේ. තක්සේරු කරන්නන් සම්පූර්නයෙන්ම එකඟතාවයෙහි සිටී නම් වේ . තක්සේරු කරන්නන් අතර කිසිඳු එකඟතාවයක් නොමැති නම් (අවස්ථාවෙන් අපේක්ෂා කරන ආකාරයේ දෙයක් හැර) වේ.

ෆ්ලයිස් කැපා සංඛ්‍යාතියේ භාවිතය පිළිබඳ උදාහරණයක් මතු පරිදි වේ: මනෝචිකිත්සකයින් දහ සතර දෙනෙකු රෝගීන් දස දෙනෙකු පරීක්ෂා කරන්නේ යැයි සිතන්න. ඒ ඒ මනෝචිකිත්සකයා විසින් එක් එක් රෝගියාට විය හැකි රෝග විනිශ්චයන් පහක් අතුරින් එකක් ‍තෝරා දේ. මනෝචිකිත්සකයන් අතර එකඟතාවයෙහි ප්‍රමාණයට, අවස්ථාවෙන් අපේක්ෂා කරන එකඟතාවයෙහි මට්ටම දරණ අනුපාතිකය පෙන්වීම සඳහා මෙම න්‍යාසයෙන් (පහත උදාහරණය බලන්න) ෆ්ලයිස්ගේ කැපා සංඛ්‍යාතිය ගණනය කල හැක.

සමීකරණ[සංස්කරණය]

විෂයන් N ගණනක්ද, එක් විෂයකට n ඇගයුම් ගණනක්ද, එමන්ම එකිනෙක තුලට ඇගයුම් පවරන ලද කාණ්ඩ k ගණනක්ද සලකන්න. විෂයන්ට i = 1, ... N ලෙස දර්ශක සපයා ඇති අතර කාණ්ඩයන්ට j = 1, ... k ලෙස දර්ශක සපයා ඇත. i වන විෂය j වන කාණ්ඩයට පවරා ඇති, තක්සේරු කරන්නන් සංඛ්‍යාව nij විසින් නිරූපණය කෙරේ.

පළමුව pj එනම් j වැනි කාණ්ඩයට සමානුපාතිකව සියලු පැවරුම් සංඛ්‍යාව, ගණනය කරන්න:

(2)

දැන්, හෙවත් තක්සේරු කරන්නන් කොපමණ ප්‍රමාණයක් i වැනි විෂයට එකඟදැයි ගණනය කරන්න (ඒ කෙසේද යත්; සිටිය හැකි සියලු තක්සේරු කරන්නන් -- තක්සේරු කරන්නන් යුගල ගණනට සාපේක්ෂව කොපමණ තක්සේරු කරන්නන් -- තක්සේරු කරන්නන් යුගල ගණනක් එකඟතාවයේ සිටින්නේදැයි ගණනය කරන්න):

(3)

දැන්, එනම් සඳහා වන සූත්‍රයට අදාළ ' සහ හි මධ්‍යනය ගණනය කරන්න:

(4)

(5)

විසඳූ උදාහරණයක්[සංස්කරණය]

1 2 3 4 5
1 0 0 0 0 14 1.000
2 0 2 6 4 2 0.253
3 0 0 3 5 6 0.308
4 0 3 9 2 0 0.440
5 2 2 8 1 1 0.330
6 7 7 0 0 0 0.462
7 3 2 6 3 0 0.242
8 2 5 3 2 2 0.176
9 6 5 2 1 0 0.286
10 0 2 2 3 7 0.286
එකතුව 20 28 39 21 32
0.143 0.200 0.279 0.150 0.229
විසඳූ උදාහරණය ගණනය කිරීම සඳහා අවශ්‍ය දත්ත වගුව

පහත උදාහරණයේදී තක්සේරු කරුවන් () දහ සතරක් දෙනා විසින් විෂයන් () දහයක්, කාණ්ඩ () පහකට පවරන ලදී. තීරු වලින් කාණ්ඩ ඉදිරිපත් කරන අතර පේළි මගින් විෂයන් ඉදිරිපත් කෙරේ. සෑම කො‍ටුවකම, යම් විශයක් යම් කාණ්ඩයකට අයත් යයි එකඟ වන්නා වූ තක්සේරු කරන්නන් ගණන දක්වා ඇත.

දත්ත[සංස්කරණය]

දකුණු පස වගුව බලන්න.

= 10, = 14, = 5

මුලු කො‍ටු ගණන = 140 හි එකතුව = 3.780

ගණනයන්[සංස්කරණය]

උදාහරණයක් ලෙස පළමු තීරුව සලකන්න,

එලෙසම දෙවන පේළිය සලකමින්,

ගණනයට, හි මුලු එකතුව අවශ්‍ය බැවින්,

සම්පූර්ණ ප්‍රස්තරය (sheet) සලකමින්,

විවරණය[සංස්කරණය]

අගයන්හි විවරණය සඳහා ලන්ඩිස් සහ කොච් (Landis and Koch) (1977) විසින් පහත වගුව සපයන ලදී. [3] කෙසේ වුවත් මෙම වගුව කිසිදු අයුරකට පොදුවේ පිලිගෙන නොමැත. පුද්ගලික නිගමන මත පාදක කර ගැනීම හැරෙන්නට, මෙය තහවුරු කිරීමට කිසිදු සාධකයක් ඔවුන් ඉදිරිපත් කර නොමැත. විෂයන් හා කාණ්ඩ සංඛ්‍යාව, අගයෙහි විශාලත්වය කෙරෙහි බලපාන හෙයින්,[4] මෙම නිර්දේශ ඇතැම් විට ප්‍රයෝජනවත් වනවාට වඩා අවැඩදායක බව පිලිඹිබු වී ඇත. කාණ්ඩ ගණන අඩු විට කැපා අගය වැඩි වේ. [5]

Interpretation
< 0 ඉතාමත් සුළු එකඟතාවයකි
0.01 – 0.20 සුළු එකඟතාවයකි
0.21 – 0.40 යම් තරමකට සාමාන්‍ය එකඟතාවයකි
0.41 – 0.60 සාමාන්‍ය (මධ්‍යම) එකඟතාවයකි
0.61 – 0.80 සැලකිය යුතු ප්‍රමාණයක එකඟතාවයකි
0.81 – 1.00 මුළුමනින්ම වාගේ සම්පූර්ණ එකඟතාවයකි

වෙනත්[සංස්කරණය]

සටහන්[සංස්කරණය]

  1.   Fleiss, J. L. (1971) pp. 378–382
  2.   Scott, W. (1955) pp. 321–325
  3.   Landis, J. R. and Koch, G. G. (1977) pp. 159–174
  4.   Gwet, K. L. (2010, chapter 6)
  5.   Sim, J. and Wright, C. C. (2005) pp. 257–268

යොමුව[සංස්කරණය]

  • Fleiss, J. L. (1971) "Measuring nominal scale agreement among many raters." Psychological Bulletin, Vol. 76, No. 5 pp. 378–382
  • Gwet, K. (2001) Statistical Tables for Inter-Rater Agreement. (Gaithersburg : StatAxis Publishing)
  • Gwet, K. L. (2010) Handbook of Inter-Rater Reliability (2nd Edition). (Gaithersburg : Advanced Analytics, LLC) ISBN 978-0-9708062-2-2
  • Landis, J. R. and Koch, G. G. (1977) "The measurement of observer agreement for categorical data" in Biometrics. Vol. 33, pp. 159–174
  • Scott, W. (1955). "Reliability of content analysis: The case of nominal scale coding." Public Opinion Quarterly, Vol. 19, No. 3, pp. 321–325.
  • Sim, J. and Wright, C. C. (2005) "The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements" in Physical Therapy. Vol. 85, No. 3, pp. 257–268

තවදුරටත් කියවීම්[සංස්කරණය]

  • Fleiss, J. L. and Cohen, J. (1973) "The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability" in Educational and Psychological Measurement, Vol. 33 pp. 613–619
  • Fleiss, J. L. (1981) Statistical methods for rates and proportions. 2nd ed. (New York: John Wiley) pp. 38–46
  • Gwet, K. L. (2008) "Computing inter-rater reliability and its variance in the presence of high agreement", British Journal of Mathematical and Statistical Psychology, Vol. 61, pp29–48

බාහිර සබැඳි[සංස්කරණය]