গবেষণায় দেখা গেছে, তথ্যের সম-অধিকার তো দূরের কথা, কিছু ক্ষেত্রে উল্টো বৈষম্য করছে জনপ্রিয় এআই চ্যাটবটগুলো। আপনি যদি যুক্তরাষ্ট্রের বাইরের বাসিন্দা হন কিংবা আপনার ইংরেজি যদি দুর্বল হয়, তবে চ্যাটবটের উত্তরে মানের পার্থক্য বা তাচ্ছিল্যপূর্ণ সুর দেখা যেতে পারে।
অনন্ত রায়হান

কৃত্রিম বুদ্ধিমত্তা বা এআই নিয়ে বিশ্বজুড়ে এখন তুমুল আলোচনা। প্রযুক্তিবিদেরা স্বপ্ন দেখাচ্ছেন, এআই সবার জন্য তথ্যের অবাধ সুযোগ তৈরি করবে। আপনি ধনী হোন বা গরিব, উচ্চশিক্ষিত হোন বা স্বল্পশিক্ষিত—এআই চ্যাটবট হবে সবার ব্যক্তিগত সহকারী। কিন্তু এই সুন্দর স্বপ্নের গায়ে বড়সড় ধাক্কা দিল এমআইটি-এর সাম্প্রতিক এক গবেষণা।
গবেষণায় দেখা গেছে, তথ্যের সম-অধিকার তো দূরের কথা, কিছু ক্ষেত্রে উল্টো বৈষম্য করছে জনপ্রিয় এআই চ্যাটবটগুলো। আপনি যদি যুক্তরাষ্ট্রের বাইরের বাসিন্দা হন কিংবা আপনার ইংরেজি যদি দুর্বল হয়, তবে চ্যাটবটের উত্তরে মানের পার্থক্য বা তাচ্ছিল্যপূর্ণ সুর দেখা যেতে পারে।
এমআইটির গবেষকেরা জিপিটি–৪, ক্লড ৩ ওপাস ও লামা ৩–এর মতো জনপ্রিয় মডেল পরীক্ষা করেছেন। তাঁরা দেখেছেন, সবার জন্য চ্যাটবট সমানভাবে কাজ করছে না। সবচেয়ে বেশি সমস্যায় পড়ছেন যাঁদের মাতৃভাষা ইংরেজি নয়। যাঁদের প্রাতিষ্ঠানিক শিক্ষা কম, তাঁরাও ক্ষতিগ্রস্ত হচ্ছেন বেশি। এই দুই বিষয় একসঙ্গে থাকলে সমস্যা আরও বাড়ে।

এ ধরনের ব্যবহারকারীদের প্রশ্নে চ্যাটবট বেশি হারে উত্তর দিতে চায় না। অনেক সময় উত্তর দিলেও তা ভালো মানের হয়না। কিছু ক্ষেত্রে ভাষার ভঙ্গিও বদলে যায়। কিছুটা তাচ্ছিল্য বা উপদেশমূলক সুর দেখা গেছে। কম শিক্ষিত ব্যবহারকারীদের ক্ষেত্রে এমন আচরণ বেশি। উচ্চশিক্ষিতদের ক্ষেত্রে তা খুবই কম।
গবেষণায় ভৌগোলিক পার্থক্যও ধরা পড়েছে। যুক্তরাষ্ট্র, ইরান ও চীনের ব্যবহারকারী প্রোফাইল দিয়ে পরীক্ষা চালানো হয়। এর মধ্যে ইরানের ব্যবহারকারীদের ক্ষেত্রে ক্লড ৩ ওপাস উল্লেখযোগ্যভাবে খারাপ ফল করেছে। সব মিলিয়ে দেখা যাচ্ছে, ভাষা, শিক্ষা ও দেশের ভিত্তিতে এআই সবার সঙ্গে একভাবে আচরণ করছে না।
গবেষণার তথ্যমতে, ‘ক্লড ৩ ওপাস’ মডেলটি স্বল্পশিক্ষিত ও ইংরেজিতে কম দক্ষ ব্যবহারকারীদের করা ১১ শতাংশ প্রশ্নের উত্তর দিতে অস্বীকৃতি জানিয়েছে। আরও ভয়ের বিষয় হলো, প্রায় ৪৩.৭ শতাংশ সময়ে এটি এই ধরনের ব্যবহারকারীদের সঙ্গে তুচ্ছ-তাচ্ছিল্য বা ‘প্যাট্রোনাইজিং’ সুরে কথা বলেছে। অথচ উচ্চশিক্ষিত ব্যবহারকারীদের ক্ষেত্রে এমন খারাপ আচরণের হার ১ শতাংশেরও কম!
গবেষক জাদ কাব্বারা বলেন, ‘সবচেয়ে বেশি ভুক্তভোগী একইসঙ্গে কম শিক্ষিত এবং ইংরেজি ভাষায় দুর্বল ব্যবহারকারীরা। তাঁদের ক্ষেত্রে এআই-এর ভুলের মাত্রা সবচেয়ে বেশি।’
গবেষকেরা বলছেন, এআই নিজের মতো করে বৈষম্য করছে না। এটি মূলত মানুষের লেখা বিপুল পরিমাণ তথ্য থেকে শেখে। সেই তথ্যের ভেতরেই যদি সামাজিক পক্ষপাত, ভুল ধারণা বা বৈষম্যমূলক দৃষ্টিভঙ্গি থাকে, তাহলে মডেলও সেগুলো শিখে নিতে পারে। গবেষণায় দেখা যায়, বাস্তবে অনেক সময় ইংরেজিভাষীরা অ-ইংরেজিভাষীদের কম দক্ষ বা কম শিক্ষিত মনে করেন, তাঁদের আসল যোগ্যতা না জেনেই। এই ধরনের মনোভাব দীর্ঘদিন ধরে বিভিন্ন লেখা, আলোচনা ও অনলাইন কনটেন্টে ছড়িয়ে আছে।
এআই মডেল যখন এই ডেটা থেকে শেখে, তখন সেই লুকানো পক্ষপাতও তার আচরণে চলে আসতে পারে। ফলে কোনো ব্যবহারকারীর ভাষা বা লেখার ধরন দেখে মডেল ভিন্নভাবে প্রতিক্রিয়া দেখাতে পারে। এতে আগে থেকেই প্রান্তিক বা তথ্যপ্রাপ্তিতে পিছিয়ে থাকা মানুষ আরও বঞ্চিত হওয়ার ঝুঁকিতে পড়েন।
গবেষকেরা সতর্ক করছেন, এখন এআই শিক্ষা, স্বাস্থ্য, ব্যবসা, এমনকি সরকারি সেবাতেও ব্যবহার হচ্ছে। তাই যদি এটি সবার জন্য সমানভাবে কাজ না করে, তাহলে সমস্যা বড় আকার নিতে পারে। তাঁদের মতে, মডেল তৈরি ও প্রশিক্ষণের সময় বিভিন্ন ভাষা, সংস্কৃতি ও শিক্ষাগত পটভূমিকে গুরুত্ব দিতে হবে। না হলে ‘সবার জন্য প্রযুক্তি’ কথাটি বাস্তবে সত্যি হবে না।

কৃত্রিম বুদ্ধিমত্তা বা এআই নিয়ে বিশ্বজুড়ে এখন তুমুল আলোচনা। প্রযুক্তিবিদেরা স্বপ্ন দেখাচ্ছেন, এআই সবার জন্য তথ্যের অবাধ সুযোগ তৈরি করবে। আপনি ধনী হোন বা গরিব, উচ্চশিক্ষিত হোন বা স্বল্পশিক্ষিত—এআই চ্যাটবট হবে সবার ব্যক্তিগত সহকারী। কিন্তু এই সুন্দর স্বপ্নের গায়ে বড়সড় ধাক্কা দিল এমআইটি-এর সাম্প্রতিক এক গবেষণা।
গবেষণায় দেখা গেছে, তথ্যের সম-অধিকার তো দূরের কথা, কিছু ক্ষেত্রে উল্টো বৈষম্য করছে জনপ্রিয় এআই চ্যাটবটগুলো। আপনি যদি যুক্তরাষ্ট্রের বাইরের বাসিন্দা হন কিংবা আপনার ইংরেজি যদি দুর্বল হয়, তবে চ্যাটবটের উত্তরে মানের পার্থক্য বা তাচ্ছিল্যপূর্ণ সুর দেখা যেতে পারে।
এমআইটির গবেষকেরা জিপিটি–৪, ক্লড ৩ ওপাস ও লামা ৩–এর মতো জনপ্রিয় মডেল পরীক্ষা করেছেন। তাঁরা দেখেছেন, সবার জন্য চ্যাটবট সমানভাবে কাজ করছে না। সবচেয়ে বেশি সমস্যায় পড়ছেন যাঁদের মাতৃভাষা ইংরেজি নয়। যাঁদের প্রাতিষ্ঠানিক শিক্ষা কম, তাঁরাও ক্ষতিগ্রস্ত হচ্ছেন বেশি। এই দুই বিষয় একসঙ্গে থাকলে সমস্যা আরও বাড়ে।

এ ধরনের ব্যবহারকারীদের প্রশ্নে চ্যাটবট বেশি হারে উত্তর দিতে চায় না। অনেক সময় উত্তর দিলেও তা ভালো মানের হয়না। কিছু ক্ষেত্রে ভাষার ভঙ্গিও বদলে যায়। কিছুটা তাচ্ছিল্য বা উপদেশমূলক সুর দেখা গেছে। কম শিক্ষিত ব্যবহারকারীদের ক্ষেত্রে এমন আচরণ বেশি। উচ্চশিক্ষিতদের ক্ষেত্রে তা খুবই কম।
গবেষণায় ভৌগোলিক পার্থক্যও ধরা পড়েছে। যুক্তরাষ্ট্র, ইরান ও চীনের ব্যবহারকারী প্রোফাইল দিয়ে পরীক্ষা চালানো হয়। এর মধ্যে ইরানের ব্যবহারকারীদের ক্ষেত্রে ক্লড ৩ ওপাস উল্লেখযোগ্যভাবে খারাপ ফল করেছে। সব মিলিয়ে দেখা যাচ্ছে, ভাষা, শিক্ষা ও দেশের ভিত্তিতে এআই সবার সঙ্গে একভাবে আচরণ করছে না।
গবেষণার তথ্যমতে, ‘ক্লড ৩ ওপাস’ মডেলটি স্বল্পশিক্ষিত ও ইংরেজিতে কম দক্ষ ব্যবহারকারীদের করা ১১ শতাংশ প্রশ্নের উত্তর দিতে অস্বীকৃতি জানিয়েছে। আরও ভয়ের বিষয় হলো, প্রায় ৪৩.৭ শতাংশ সময়ে এটি এই ধরনের ব্যবহারকারীদের সঙ্গে তুচ্ছ-তাচ্ছিল্য বা ‘প্যাট্রোনাইজিং’ সুরে কথা বলেছে। অথচ উচ্চশিক্ষিত ব্যবহারকারীদের ক্ষেত্রে এমন খারাপ আচরণের হার ১ শতাংশেরও কম!
গবেষক জাদ কাব্বারা বলেন, ‘সবচেয়ে বেশি ভুক্তভোগী একইসঙ্গে কম শিক্ষিত এবং ইংরেজি ভাষায় দুর্বল ব্যবহারকারীরা। তাঁদের ক্ষেত্রে এআই-এর ভুলের মাত্রা সবচেয়ে বেশি।’
গবেষকেরা বলছেন, এআই নিজের মতো করে বৈষম্য করছে না। এটি মূলত মানুষের লেখা বিপুল পরিমাণ তথ্য থেকে শেখে। সেই তথ্যের ভেতরেই যদি সামাজিক পক্ষপাত, ভুল ধারণা বা বৈষম্যমূলক দৃষ্টিভঙ্গি থাকে, তাহলে মডেলও সেগুলো শিখে নিতে পারে। গবেষণায় দেখা যায়, বাস্তবে অনেক সময় ইংরেজিভাষীরা অ-ইংরেজিভাষীদের কম দক্ষ বা কম শিক্ষিত মনে করেন, তাঁদের আসল যোগ্যতা না জেনেই। এই ধরনের মনোভাব দীর্ঘদিন ধরে বিভিন্ন লেখা, আলোচনা ও অনলাইন কনটেন্টে ছড়িয়ে আছে।
এআই মডেল যখন এই ডেটা থেকে শেখে, তখন সেই লুকানো পক্ষপাতও তার আচরণে চলে আসতে পারে। ফলে কোনো ব্যবহারকারীর ভাষা বা লেখার ধরন দেখে মডেল ভিন্নভাবে প্রতিক্রিয়া দেখাতে পারে। এতে আগে থেকেই প্রান্তিক বা তথ্যপ্রাপ্তিতে পিছিয়ে থাকা মানুষ আরও বঞ্চিত হওয়ার ঝুঁকিতে পড়েন।
গবেষকেরা সতর্ক করছেন, এখন এআই শিক্ষা, স্বাস্থ্য, ব্যবসা, এমনকি সরকারি সেবাতেও ব্যবহার হচ্ছে। তাই যদি এটি সবার জন্য সমানভাবে কাজ না করে, তাহলে সমস্যা বড় আকার নিতে পারে। তাঁদের মতে, মডেল তৈরি ও প্রশিক্ষণের সময় বিভিন্ন ভাষা, সংস্কৃতি ও শিক্ষাগত পটভূমিকে গুরুত্ব দিতে হবে। না হলে ‘সবার জন্য প্রযুক্তি’ কথাটি বাস্তবে সত্যি হবে না।

জিলাপির নাম শুনলেই অনেকের জিভে জল চলে আসে। বিশেষ করে বাঙালির ইফতার বা যেকোনো উৎসবের আয়োজন জিলাপি ছাড়া যেন অসম্পূর্ণ। গরম গরম, রসে ভেজা এই মিষ্টি আমাদের খুবই পরিচিত। কিন্তু কখনো কি ভেবে দেখেছেন, জিলাপি আসলে কোথা থেকে এসেছে? এই মিষ্টি কি শুধু আমাদের দেশেই খাওয়া হয়, নাকি পৃথিবীর অন্য জায়গাতেও এর প্রচলন
৪ ঘণ্টা আগে
কৃত্রিম বুদ্ধিমত্তা আমাদের জীবনে দ্রুত জায়গা করে নিচ্ছে। কাজের সুবিধা থেকে শুরু করে ব্যক্তিগত আলাপ, সব জায়গাতেই এখন চ্যাটবট ব্যবহার হচ্ছে। কিন্তু এই প্রযুক্তি কি কখনো মানুষের মানসিক অবস্থাকে আরও খারাপ করে তুলতে পারে? যুক্তরাষ্ট্রে একটি সাম্প্রতিক মামলা সেই প্রশ্নই নতুন করে সামনে এনে দিয়েছে।
৫ ঘণ্টা আগে
একসময় যুক্তরাষ্ট্র ও ইরানের সম্পর্ক এতটা বৈরিতাপূর্ণ ছিল না। কিন্তু সময়ের সঙ্গে সঙ্গে সেই সম্পর্ক কীভাবে তীব্র দ্বন্দ্বে রূপ নিল? এই প্রশ্নের উত্তর খুঁজতে হলে ফিরে তাকাতে হয় ইতিহাসের দিকে।
১০ ঘণ্টা আগে
এই উপমহাদেশের ইতিহাস জটিল। সেই ইতিহাসে রাজনৈতিক সহিংসতা কম ঘটেনি। এই ইতিহাসের বাঁকবদলগুলো সাধারণত বিচ্ছিন্ন ঘটনা হিসেবেই আন্দাজ হয়। কিন্তু ইতিহাস তো কিছু বিচ্ছিন্ন ঘটনার সমাহার নয়। এটি বরং দীর্ঘ ধারাবাহিকতা। সেখানে অন্তর্নিহিত থাকে জনগোষ্ঠীর অবদমিত আকাঙ্ক্ষা ও মুক্তির স্পৃহা।
১ দিন আগে