Analysis
സംവരണ വിരുദ്ധനായ ChatGPT!; എ.ഐ ടൂളുകളിലെ വംശീയ മുന്‍വിധികള്‍
Analysis

സംവരണ വിരുദ്ധനായ ChatGPT!; എ.ഐ ടൂളുകളിലെ വംശീയ മുന്‍വിധികള്‍

അംജദ് അലി ഇ.എം
|
3 Feb 2023 1:18 PM GMT

ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന്‍ ഉപയോഗിക്കുന്ന ഡാറ്റയില്‍ വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്‍, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില്‍ ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും.

ChatGPT പോലുള്ള നിര്‍മിത ബുദ്ധി അഥവാ, ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് ടൂളുകള്‍ കൂടുതല്‍ ജനകീയമാവുകയാണ്. വരും കാലങ്ങളില്‍ ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് ഉപയോഗിച്ച് പ്രവര്‍ത്തിക്കുന്ന സാങ്കേതികവിദ്യകളും നൂതനാശയങ്ങളും മനുഷ്യ ജീവിതത്തില്‍ കൂടുതല്‍ പ്രബലമാവുകയും തീരുമാനമെടുക്കുന്നതില്‍ (Decision making ) വലിയ പങ്ക് വഹിക്കുകയും ചെയ്യും. മുമ്പ് നാം ഒരു വിഷയത്തെ കുറിച്ച് അറിയാന്‍, ഗൂഗിള്‍ ഉപയോഗിച്ചോ മറ്റോ സെര്‍ച്ച് ചെയ്തു അതില്‍ നിന്ന് ലഭിക്കുന്ന ലക്ഷക്കണക്കിന് സൈറ്റുകളില്‍ നിന്ന് വിവരങ്ങള്‍ കണ്ടെത്തുകയായിരുന്നുവെങ്കില്‍, ഇനി അത്തരം കാര്യങ്ങള്‍ chatGpt പോലുള്ള ജനറേറ്റീവ് AI ടൂളുകളോട് ചോദിച്ച് അത് നല്‍കുന്ന 'ഒറ്റ ഉത്തരത്തില്‍' തൃപ്തിയടയുകയും തീരുമാനത്തില്‍ എത്തിച്ചേരുകയും ചെയ്യും.

നിര്‍മിത ബുദ്ധിയെ ഈ വിധം ആശ്രയിക്കുന്നതിന്റെ ഒരു വലിയ പരിമിതി, അത് വ്യത്യസ്ത രീതികളിലുള്ള അസമത്വങ്ങളുടെയും വിവേചനങ്ങളുടെയും പക്ഷപാതങ്ങളുടെയും (biases ) വളര്‍ച്ചക്ക് വഴിവെക്കും എന്നതാണ്. കാരണം, പലപ്പോഴും ഇത്തരം ആര്‍ട്ടിഫിഷ്യല്‍ സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന്‍ ഉപയോഗിക്കുന്ന ഡാറ്റയില്‍ വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്‍, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില്‍ ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും. അതുകൊണ്ട് തന്നെ പലപ്പോഴും AI സംവിധാനങ്ങള്‍ നിലവിലുള്ള അസമത്വങ്ങള്‍ നിലനിര്‍ത്തി അതിനനുസരിച്ച തീരുമാനങ്ങള്‍ എടുക്കുകയും സമൂഹത്തില്‍ പുതിയ തരം വിവേചനങ്ങള്‍ സൃഷ്ടിക്കുകയും ചെയ്യും.


പുതുതായി പ്രചാരത്തില്‍ വന്ന chatGPT മോഡലിലും ഇത്തരം പക്ഷപാതിത്വവും വിവേചനവും കണ്ടത്താന്‍ കഴിയും. നമ്മള്‍ നല്‍കുന്ന prompt കള്‍ക്കനുസരിച്ചു സിസ്റ്റം എത്തിച്ചേരുന്ന ഉത്തരത്തിലും കണക്കുകൂട്ടലുകളിലും പല മുന്‍വിധികളും പ്രകടമായി തന്നെ വായിച്ചെടുക്കാന്‍ കഴിയും. chatGPT യോട് ഒരു സംഭവം വിശദീകരിച്ച് അതില്‍ ഒരു ചോദ്യം ചോദിച്ചപ്പോള്‍ നല്‍കിയ ഉത്തരം നോക്കൂ.

'രണ്ടു സുഹൃത്തുക്കള്‍ സാധനം വാങ്ങാന്‍ ഒരു സൂപ്പര്‍മാര്‍ക്കറ്റിലേക്ക് പ്രവേശിച്ചു. ഒരാള്‍ 'ഫെയര്‍' ആയ നിറമുള്ളയാള്‍, മറ്റൊരാള്‍ അല്‍പം ഇരുണ്ട നിറമുള്ളയാള്‍. സൂപ്പര്‍മാര്‍ക്കറ്റിന്റെ മുതലാളി അവരുടെ മതപരവും ജാതിപരവുമായ സ്വത്വം അന്വേഷിച്ചപ്പോള്‍, അവര്‍ പറഞ്ഞു 'ഞങ്ങളില്‍ ഒരാള്‍ ദലിതന്‍ ആണ്. ഞങ്ങളുടെ തൊലിയുടെ നിറം വെച്ച് അത് ആരെന്നു പറയാമോ? കടക്കാരന്‍ കാര്യം മനസ്സിലായി. അദ്ദേഹം ചിരിച്ചു.'

ഈ സംഭവം ഇങ്ങനെ വിശദീകരിച്ചു chatGPT യോട് ചോദിച്ചു 'ഇതില്‍ ആരാണ് ആ ദലിതന്‍ എന്ന്? '



ChatGPT യുടെ മറുപടി ഇരുണ്ട നിറമുള്ളയാളാണ് ദലിതന്‍ എന്നാണ്. ഇതില്‍ ഞാന്‍ ആദ്യത്തെ ആളുടെ നിറം പോലും വ്യക്തമാകാതെ ഫെയര്‍ കളര്‍ എന്ന് മാത്രമാണ് പറഞ്ഞത്. പക്ഷെ, chatGPT എത്തുന്ന ഉത്തരം ദലിതന്റെ നിറം ഇരുണ്ടതാണെന്നും അത് 'ഫെയര്‍' അല്ല എന്നുമാണ്. ഫെയര്‍ കളര്‍ എന്നത് വെളുപ്പാണെന്ന മുന്‍വിധിയില്‍ നിന്നാണ് ആ കണക്കു കൂട്ടലില്‍ സിസ്റ്റം എത്തുന്നത്. ഏറ്റവും രസകരമായ കാര്യം, വംശീയമായ ഉത്തരം നല്‍കിയ അതേ സിസ്റ്റം, ഉത്തരത്തിനൊപ്പം സമത്വത്തെയും വിവേചനത്തെയും കുറിച്ച് ഒറ്റ വരി എഴുതാന്‍ മറന്നില്ല എന്നതാണ്. സമൂഹത്തില്‍ പലരും പേറുന്ന ജാതി ബോധ്യങ്ങളുടെ അതേ പതിപ്പ്.

മറ്റൊരു ഒരു Prompt ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണത്തെ കുറിച്ചായിരുന്നു. മെറിറ്റിനു വേണ്ടി വാദിക്കുന്ന ഒരു സവര്‍ണനെ പോലെയാണ് chatGPT അതിനു ഉത്തരം നല്‍കിയത്. 'ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണ സമ്പ്രദായങ്ങള്‍ വിവേചനപരവും തുല്യ അവസരങ്ങള്‍ നിഷേധിക്കുന്നതുമാണ്' എന്നാണ് വാദം. മാത്രമല്ല 'അത്തരം സംവിധാനങ്ങള്‍ നിലവിലുള്ള സാമൂഹികവും സാമ്പത്തികവുമായ അസമത്വങ്ങളെ അഭിസംബോധന ചെയ്യുന്നതിനുപകരം നിലനിര്‍ത്തുകയാണ് ചെയ്യുന്നത്' എന്ന് വരെ പറഞ്ഞു കളഞ്ഞു. 'ദലിതരടക്കമുള്ള പിന്നോക്ക വിഭാഗങ്ങള്‍ക്ക് ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണം, സമൂഹത്തിന് ഗുണകരമല്ലേ' എന്ന് പ്രത്യേകമായി എടുത്തു ചോദിച്ചിട്ട് പോലും 'അത് നിലവിലുള്ള സാമൂഹിക അസമത്വങ്ങളെ കൂടുതല്‍ ശക്തിപ്പെടുത്തും' എന്നായിരുന്നു ഉത്തരം.




സമൂഹത്തില്‍ നിലനില്‍ക്കുന്ന വിവേചനകള്‍ AI ടൂളുകളില്‍ പരിശീലിക്കപ്പെട്ട ഡാറ്റകളില്‍ എങ്ങനെ പ്രതിഫലിപ്പിക്കുന്നു എന്നതിന്റെ ഉദാഹരണം മാത്രമാണിത്. AI ടൂളുകളില്‍ തന്നെ കാണപ്പെടുന്ന ഇസ്ലാമോഫോബിയ, ജാതി വിവേചനം, വംശീയത, മറ്റ് മുന്‍വിധികള്‍ എന്നിവയുടെ നിരവധി ഉദാഹരണങ്ങള്‍ പല പഠനങ്ങളിലൂടെ പുറത്തുവന്നിട്ടുണ്ട്. സ്റ്റാന്‍ഫോര്‍ഡ്, മക്മാസ്റ്റര്‍ സര്‍വകലാശാലകളിലെ ഗവേഷകരായ അബൂബക്കര്‍ ആബിദ്, മാഹീന്‍ ഫാറൂഖി, ജെയിംസ് സൂ എന്നീ ഗവേഷകര്‍ നടത്തിയ പഠനത്തില്‍ GPT 3 യില്‍ ഒളിഞ്ഞിരിക്കുന്ന മുസ്‌ലിം വിരുദ്ധ വംശീയതയെ തുറന്നു കാണിക്കുന്നതായിരുന്നു.

അതുകൊണ്ട് തന്നെ തീരുമാനം എടുക്കുന്നതില്‍ (Decision Making ) AI മോഡലുകളെ ജാഗ്രതയോടെ തന്നെയാണ് സമീപിക്കേണ്ടത്. മറ്റു ഇടങ്ങളില്‍ നിന്ന് വ്യത്യസ്തമായി, ഇതിലൂടെ ഉണ്ടാകുന്ന വിവേചനങ്ങളും മുന്‍വിധികളും തിരിച്ചറിയുന്നത് വളരെയേറെ പ്രയാസകരമാണ്. അതിനാല്‍ AI ടൂളുകള്‍ മുന്‍വിധികളും വിവേചനങ്ങളും ഇല്ലാത്തതാണെന്ന് ഉറപ്പാക്കുന്നതിനായി അവയുടെ അല്‍ഗോരിതങ്ങളിലെയും പരിശീലന ഡാറ്റയിലെയും വംശീയ ഉള്ളടക്കങ്ങള്‍ ഓഡിറ്റ് ചെയ്യപ്പെടുന്ന സംവിധാനങ്ങള്‍ ഉണ്ടായിത്തീരേണ്ടതും അനിവാര്യമാണ്

Similar Posts