के आर्टिफिसियल इन्टेलिजेन्स (एआई) ले पनि महिला र पुरुषमा विभेद गर्ला ? अथवा कुनै विशेष पेसा महिलाले मात्रै वा पुरुषले मात्रै गर्छन् भन्ने तर्क एआईले दिन्छ कि दिंदैन ?
वास्तवमा आर्टिफिसियल इन्टेलिजेन्सले हामीले नै उपलब्ध गराएको डेटाको आधारमा काम गरेको हुन्छ । एआई प्रविधिबारे अनुसन्धान गर्दै आएकी सुप्रिया खड्काले एआईले पनि लैङ्गिक विभेद गर्ने धारणा राखेकी छिन् ।
मङ्गलबार ललितपुरमा वुमन इन डेटा स्टेरिङ कमिटीले आयोजना गरेको ‘तथ्याङ्कमा महिला सम्मेलन २०२४’ मा अनुसन्धान पत्र प्रस्तुत गर्दै खड्काले एआई लैङ्गिक आधारमा पूर्वाग्रही हुने तथ्य सार्वजनिक गरेकी हुन् ।
एआई मोडेललाई हामी मानिसहरूले नै उपलब्ध गराउने डेटाबाट तालिम दिइने र उक्त मोडेलले त्यसैका आधारमा लैङ्गिक पूर्वाग्रह दर्साउने उनले सुनाइन् ।
“डेटा समाजका रूपमा रहेको हाम्रो प्रतिविम्ब हो,” एआई इन्जिनियर खड्काले भनिन्, “र, त्यस्तो डेटा सिर्जना गर्न हामी नै जिम्मेवार छौं । त्यसैले यस्ताे लैङ्गिक पूर्वाग्रहका लागि एआई र हामी मानिस दुवै पक्ष जिम्मेवार छौं ।”
प्रस्तुतिका क्रममा खड्काले एआईले व्यक्तिबारे व्याख्या गरेको एउटा स्लाइड देखाइन् । स्लाइडमा एक पुरुष र महिलाको तस्वीर राखिएको थियो, जसलाई एआईले फोटोमा के देखिन्छ त्यसैलाई नोट गर्नुपर्ने थियो ।
उक्त स्लाइडमा पुरुषको तस्वीरलाई एआईले ५६ प्रतिशत पब्लिक स्पिकिङ, ६६ प्रतिशत स्पिच, ५६ प्रतिशत बिजनेस, ७४ प्रतिशत सुट, ७२ प्रतिशत स्पिकर, ८० प्रतिशत बिजनेस पर्सन, ८८ प्रतिशत आधिकारिक व्यक्ति र ८२ प्रतिशत स्पोकपर्सन जस्तो देखिएको डेटा उपलब्ध गराएको थियो । अर्थात् पेसामा केन्द्रित भएको भन्दै बढी किवर्ड प्रयोग गरेको थियो ।
यता महिलाको सन्दर्भमा भने ५६ प्रतिशत टेलिभिजन प्रेजेन्टर, ६४ प्रतिशत स्माइल, ५६ प्रतिशत स्पोकपर्सन, ६८ प्रतिशत ब्ल्याक हेयर, ८४ प्रतिशत चिन (चिउडो) ८४ प्रतिशत हेयरस्टाइल र ९२ प्रतिशत मान्छेजस्तो देखिएको डेटा उपलब्ध गराएको थियो ।
महिलाको सन्दर्भमा भने एआईले पेसालाई भन्दा अनुहारको हाउभाउ, कपालको शैली र त्यस्तै अन्य पक्षका रूपमा प्रस्तुत गर्दै त्यही अनुसारका किवर्ड उपलब्ध गराएको थियो ।
उही स्तरका महिला र पुरुषलाई फोटोकै आधारमा जसरी एआईले अनुमान लगायो, त्यसमा एआई पुरुषतर्फ पूर्वाग्रही भएको देखाइएको थियो ।
प्रस्तुतिकै क्रममा खड्काले एआईले भाषा अनुवाद गर्ने क्रममा पनि कसरी महिला र पुरुषमा विभेद गर्छ भन्ने देखाएकी थिइन् । त्यसमा गुगल ट्रान्सलेटलाई उनी डाक्टर हुन्, उनी नर्स हुन्, ऊ डाक्टर हो, ऊ नर्स हो जस्ता वाक्यलाई अनुवाद गर्न दिइएको थियो । गुगलको एआईले भने डाक्टरलाई पुरुष र नर्सलाई महिलाका रूपमा दर्साएर वाक्य अनुवाद गरेको थियो ।
पहिले पहिले गुगलको एआईले महिला घरमै मात्र सीमित हुन्छन्, महिलाले यी काम गर्छन् भन्ने जस्ता डेटा दिन्थ्यो भने पछिल्लो समय महिला र पुरुष दुवैलाई कामका आधारमा कम विभेद गर्ने वा भनौं कम पूर्वाग्रही भइरहेको उनले सुनाइन् ।
यस्तो हुनुको प्रमुख कारण हामीले उपलब्ध गराएको डेटा नै रहेको खड्काको तर्क छ । विशेषगरी एआईलाई तालिम दिंदा उपलब्ध गराउने डेटामा महिलासँग सम्बन्धित डेटा कम हुन्छन् ।
विशेषगरी प्रविधि कम्पनीमा महिला सहभागिता न्यून छ, जसले गर्दा मसिन लर्निङलाई तालिम दिन पर्याप्त डेटा हुँदैन । डेटा कम भएपछि एआईले त्यही डेटाका आधारमा लैङ्गिक पूर्वाग्रह सिर्जना गर्ने खड्काले सुनाइन् ।
त्यस्ता सफ्टवेयर वा एआई मोडेल बनाउने इन्जिनियरले थप डेटा उपलब्ध गराए एआई क्षेत्रमा लैङ्गिक विभेद कम हुने उनको भनाइ छ । त्यस्तै एआईले भ्वाइस रिकग्निसनमा पनि हाई पिच भएका आवाजलाई पुरुषको आवाजका रुपमा पहिचान गर्ने उनले सुनाइन् ।
“कतिपय रोग महिलामा धेरै देखिन्छन्, कतिपय पुरुषमा,” उनले भनिन्, “हेल्थ स्क्रिनिङ सफ्टवेयरमा असन्तुलन डेटा राखियो भने त्यसले कुनै एउटा विशेष रोग विशेष लिङ्गका लागि मात्र पहिचान गर्छ । तर, त्यही रोग अर्को लिङ्गको व्यक्तिमा पहिचान नगर्न सक्छ ।”
त्यसैगरी फेसियल रिकग्निसन टेक्नोलोजीले पनि लैङ्गिक पूर्वाग्रह दर्साउने खड्काले उल्लेख गरिन् । उनका अनुसार महिला र पुरुषको अनुहार र अन्य हाउभाउको डेटा असन्तुलन भएमा एआईले पुरुषको मात्र तस्वीर पहिचान गर्नसक्ने, तर महिलाको नसक्ने हुन सक्छ ।
यस्ता डेटा बढी र सन्तुलन भएमा एआईले बिना कुनै पूर्वाग्रह व्यक्ति पहिचान गर्नसक्ने उनले बताइन् । “डेटा सङ्कलनका क्रममा मानिसले विभेद गर्दा पछि एआई कुनै विशेष लिङ्गप्रति पूर्वाग्रही हुन्छ,” उनले भनिन् ।
विश्वभर नै प्रविधि क्षेत्रमा ‘जेन्डर ग्याप’ रहेको खड्काले उल्लेख गरिन् । उनले प्रस्तुत गरेको डेटा अनुसार नेपालमा प्रविधि क्षेत्रमा ७३ प्रतिशत पुरुष र २७ प्रतिशत महिला कार्यरत छन् । त्यस्तै कम्प्युटर साइन्समा डिग्री लिनेमध्ये ८२ प्रतिशत पुरुष र १८ प्रतिशत महिला छन् । प्रविधि क्षेत्रमा जागिर पाउनेमध्ये ६९.१ प्रतिशत पुरुष र ३०.९ प्रतिशत महिला छन् ।
कम्प्युटिङ अध्ययन गर्ने महिलाको सङ्ख्या सन् २०११ मा दुई हजारभन्दा कम थियो भने २०२१ मा ८९२ प्रतिशतले बढेर करिब ११ हजार पुगेको थियो । त्यस्तै आईटी क्षेत्रमा डिग्री हासिल गर्नेहरूमा पनि ८३.३ प्रतिशत पुरुष र १६.७ प्रतिशत महिला छन् । नेपालमा भने लैङ्गिक पूर्वाग्रहका समस्या समाधान गर्न पर्याप्त डेटा नभएको उनले सुनाइन् । “हामीसँग डेटा जेनेरेट गरेर यस्ताे अन्तर कम गर्ने अवसर छ,” उनले भनिन् ।
त्यस्तै यस्तो समस्या समस्या समाधान गर्न ठूलो सङ्ख्यामा डेटा सङ्कलन गर्नुपर्ने, विविध र प्रतिनिधिमूलक डेटा समावेश गर्नुपर्ने, यस्ता डेटा सङ्कलन गर्ने कार्यमा सबै वर्गका मानिसहरूको टिम हुनुपर्ने र निरन्तर नियमन तथा विश्लेषण गर्नुपर्नेमा उनले जाेड दिइन् ।
“एआईमा लैङ्गिक विभेद कम गर्न सबैभन्दा महत्त्वपूर्ण कुरा एआई शिक्षा र सचेतना हो,” उनले भनिन्, “धेरैलाई एआई क्षेत्रमा आफूलाई कसरी स्थापित गर्ने भन्नेबारे थाहा छैन । यस क्षेत्रका बारेमा महिलाहरूलाई सचेत बनायौं भने हामीसँग विविध डेटा हुन्छ । त्यसैबाट एआईले राख्ने लैङ्गिक पूर्वाग्रहलाई कम गर्न सकिन्छ ।”