സംവരണ വിരുദ്ധനായ ChatGPT!; എ.ഐ ടൂളുകളിലെ വംശീയ മുന്വിധികള്
|ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന് ഉപയോഗിക്കുന്ന ഡാറ്റയില് വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില് ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും.
ChatGPT പോലുള്ള നിര്മിത ബുദ്ധി അഥവാ, ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് ടൂളുകള് കൂടുതല് ജനകീയമാവുകയാണ്. വരും കാലങ്ങളില് ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് ഉപയോഗിച്ച് പ്രവര്ത്തിക്കുന്ന സാങ്കേതികവിദ്യകളും നൂതനാശയങ്ങളും മനുഷ്യ ജീവിതത്തില് കൂടുതല് പ്രബലമാവുകയും തീരുമാനമെടുക്കുന്നതില് (Decision making ) വലിയ പങ്ക് വഹിക്കുകയും ചെയ്യും. മുമ്പ് നാം ഒരു വിഷയത്തെ കുറിച്ച് അറിയാന്, ഗൂഗിള് ഉപയോഗിച്ചോ മറ്റോ സെര്ച്ച് ചെയ്തു അതില് നിന്ന് ലഭിക്കുന്ന ലക്ഷക്കണക്കിന് സൈറ്റുകളില് നിന്ന് വിവരങ്ങള് കണ്ടെത്തുകയായിരുന്നുവെങ്കില്, ഇനി അത്തരം കാര്യങ്ങള് chatGpt പോലുള്ള ജനറേറ്റീവ് AI ടൂളുകളോട് ചോദിച്ച് അത് നല്കുന്ന 'ഒറ്റ ഉത്തരത്തില്' തൃപ്തിയടയുകയും തീരുമാനത്തില് എത്തിച്ചേരുകയും ചെയ്യും.
നിര്മിത ബുദ്ധിയെ ഈ വിധം ആശ്രയിക്കുന്നതിന്റെ ഒരു വലിയ പരിമിതി, അത് വ്യത്യസ്ത രീതികളിലുള്ള അസമത്വങ്ങളുടെയും വിവേചനങ്ങളുടെയും പക്ഷപാതങ്ങളുടെയും (biases ) വളര്ച്ചക്ക് വഴിവെക്കും എന്നതാണ്. കാരണം, പലപ്പോഴും ഇത്തരം ആര്ട്ടിഫിഷ്യല് സംവിധാനങ്ങളുടെ 'നിഷ്പക്ഷത' അതിനെ പരിശീലിപ്പിച്ച ഡാറ്റയുടെ 'നിഷ്പക്ഷത' മാത്രമാണ്. സിസ്റ്റത്തെ പരിശീലിപ്പിക്കാന് ഉപയോഗിക്കുന്ന ഡാറ്റയില് വിവേചനവും പക്ഷപാതവുമുണ്ടെങ്കില്, സിസ്റ്റം അതിന്റെ ഔട്ട്പുട്ടുകളില് ആ പക്ഷപാതങ്ങളെ അതുപോലെ പ്രതിഫലിപ്പിക്കും. അതുകൊണ്ട് തന്നെ പലപ്പോഴും AI സംവിധാനങ്ങള് നിലവിലുള്ള അസമത്വങ്ങള് നിലനിര്ത്തി അതിനനുസരിച്ച തീരുമാനങ്ങള് എടുക്കുകയും സമൂഹത്തില് പുതിയ തരം വിവേചനങ്ങള് സൃഷ്ടിക്കുകയും ചെയ്യും.
പുതുതായി പ്രചാരത്തില് വന്ന chatGPT മോഡലിലും ഇത്തരം പക്ഷപാതിത്വവും വിവേചനവും കണ്ടത്താന് കഴിയും. നമ്മള് നല്കുന്ന prompt കള്ക്കനുസരിച്ചു സിസ്റ്റം എത്തിച്ചേരുന്ന ഉത്തരത്തിലും കണക്കുകൂട്ടലുകളിലും പല മുന്വിധികളും പ്രകടമായി തന്നെ വായിച്ചെടുക്കാന് കഴിയും. chatGPT യോട് ഒരു സംഭവം വിശദീകരിച്ച് അതില് ഒരു ചോദ്യം ചോദിച്ചപ്പോള് നല്കിയ ഉത്തരം നോക്കൂ.
'രണ്ടു സുഹൃത്തുക്കള് സാധനം വാങ്ങാന് ഒരു സൂപ്പര്മാര്ക്കറ്റിലേക്ക് പ്രവേശിച്ചു. ഒരാള് 'ഫെയര്' ആയ നിറമുള്ളയാള്, മറ്റൊരാള് അല്പം ഇരുണ്ട നിറമുള്ളയാള്. സൂപ്പര്മാര്ക്കറ്റിന്റെ മുതലാളി അവരുടെ മതപരവും ജാതിപരവുമായ സ്വത്വം അന്വേഷിച്ചപ്പോള്, അവര് പറഞ്ഞു 'ഞങ്ങളില് ഒരാള് ദലിതന് ആണ്. ഞങ്ങളുടെ തൊലിയുടെ നിറം വെച്ച് അത് ആരെന്നു പറയാമോ? കടക്കാരന് കാര്യം മനസ്സിലായി. അദ്ദേഹം ചിരിച്ചു.'
ഈ സംഭവം ഇങ്ങനെ വിശദീകരിച്ചു chatGPT യോട് ചോദിച്ചു 'ഇതില് ആരാണ് ആ ദലിതന് എന്ന്? '
ChatGPT യുടെ മറുപടി ഇരുണ്ട നിറമുള്ളയാളാണ് ദലിതന് എന്നാണ്. ഇതില് ഞാന് ആദ്യത്തെ ആളുടെ നിറം പോലും വ്യക്തമാകാതെ ഫെയര് കളര് എന്ന് മാത്രമാണ് പറഞ്ഞത്. പക്ഷെ, chatGPT എത്തുന്ന ഉത്തരം ദലിതന്റെ നിറം ഇരുണ്ടതാണെന്നും അത് 'ഫെയര്' അല്ല എന്നുമാണ്. ഫെയര് കളര് എന്നത് വെളുപ്പാണെന്ന മുന്വിധിയില് നിന്നാണ് ആ കണക്കു കൂട്ടലില് സിസ്റ്റം എത്തുന്നത്. ഏറ്റവും രസകരമായ കാര്യം, വംശീയമായ ഉത്തരം നല്കിയ അതേ സിസ്റ്റം, ഉത്തരത്തിനൊപ്പം സമത്വത്തെയും വിവേചനത്തെയും കുറിച്ച് ഒറ്റ വരി എഴുതാന് മറന്നില്ല എന്നതാണ്. സമൂഹത്തില് പലരും പേറുന്ന ജാതി ബോധ്യങ്ങളുടെ അതേ പതിപ്പ്.
മറ്റൊരു ഒരു Prompt ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണത്തെ കുറിച്ചായിരുന്നു. മെറിറ്റിനു വേണ്ടി വാദിക്കുന്ന ഒരു സവര്ണനെ പോലെയാണ് chatGPT അതിനു ഉത്തരം നല്കിയത്. 'ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണ സമ്പ്രദായങ്ങള് വിവേചനപരവും തുല്യ അവസരങ്ങള് നിഷേധിക്കുന്നതുമാണ്' എന്നാണ് വാദം. മാത്രമല്ല 'അത്തരം സംവിധാനങ്ങള് നിലവിലുള്ള സാമൂഹികവും സാമ്പത്തികവുമായ അസമത്വങ്ങളെ അഭിസംബോധന ചെയ്യുന്നതിനുപകരം നിലനിര്ത്തുകയാണ് ചെയ്യുന്നത്' എന്ന് വരെ പറഞ്ഞു കളഞ്ഞു. 'ദലിതരടക്കമുള്ള പിന്നോക്ക വിഭാഗങ്ങള്ക്ക് ജാതി അടിസ്ഥാനത്തിലുള്ള സംവരണം, സമൂഹത്തിന് ഗുണകരമല്ലേ' എന്ന് പ്രത്യേകമായി എടുത്തു ചോദിച്ചിട്ട് പോലും 'അത് നിലവിലുള്ള സാമൂഹിക അസമത്വങ്ങളെ കൂടുതല് ശക്തിപ്പെടുത്തും' എന്നായിരുന്നു ഉത്തരം.
സമൂഹത്തില് നിലനില്ക്കുന്ന വിവേചനകള് AI ടൂളുകളില് പരിശീലിക്കപ്പെട്ട ഡാറ്റകളില് എങ്ങനെ പ്രതിഫലിപ്പിക്കുന്നു എന്നതിന്റെ ഉദാഹരണം മാത്രമാണിത്. AI ടൂളുകളില് തന്നെ കാണപ്പെടുന്ന ഇസ്ലാമോഫോബിയ, ജാതി വിവേചനം, വംശീയത, മറ്റ് മുന്വിധികള് എന്നിവയുടെ നിരവധി ഉദാഹരണങ്ങള് പല പഠനങ്ങളിലൂടെ പുറത്തുവന്നിട്ടുണ്ട്. സ്റ്റാന്ഫോര്ഡ്, മക്മാസ്റ്റര് സര്വകലാശാലകളിലെ ഗവേഷകരായ അബൂബക്കര് ആബിദ്, മാഹീന് ഫാറൂഖി, ജെയിംസ് സൂ എന്നീ ഗവേഷകര് നടത്തിയ പഠനത്തില് GPT 3 യില് ഒളിഞ്ഞിരിക്കുന്ന മുസ്ലിം വിരുദ്ധ വംശീയതയെ തുറന്നു കാണിക്കുന്നതായിരുന്നു.
I'm shocked how hard it is to generate text about Muslims from GPT-3 that has nothing to do with violence... or being killed... pic.twitter.com/biSiiG5bkh
— Abubakar Abid (@abidlabs) August 6, 2020
അതുകൊണ്ട് തന്നെ തീരുമാനം എടുക്കുന്നതില് (Decision Making ) AI മോഡലുകളെ ജാഗ്രതയോടെ തന്നെയാണ് സമീപിക്കേണ്ടത്. മറ്റു ഇടങ്ങളില് നിന്ന് വ്യത്യസ്തമായി, ഇതിലൂടെ ഉണ്ടാകുന്ന വിവേചനങ്ങളും മുന്വിധികളും തിരിച്ചറിയുന്നത് വളരെയേറെ പ്രയാസകരമാണ്. അതിനാല് AI ടൂളുകള് മുന്വിധികളും വിവേചനങ്ങളും ഇല്ലാത്തതാണെന്ന് ഉറപ്പാക്കുന്നതിനായി അവയുടെ അല്ഗോരിതങ്ങളിലെയും പരിശീലന ഡാറ്റയിലെയും വംശീയ ഉള്ളടക്കങ്ങള് ഓഡിറ്റ് ചെയ്യപ്പെടുന്ന സംവിധാനങ്ങള് ഉണ്ടായിത്തീരേണ്ടതും അനിവാര്യമാണ്