বৈজ্ঞানিক তথ্য সরল করতে গিয়ে গুরুত্বপূর্ণ বিষয় বাদ দিচ্ছে চ্যাটবট

চ্যাটজিপিটি, এললামা ও ডিপসিকের বৈজ্ঞানিক সারাংশে ভুল
বর্তমানের কৃত্রিম বুদ্ধিমত্তা ভিত্তিক চ্যাটবট বা লার্জ ল্যাঙ্গুয়েজ মডেল (এলএলএম) যেমন চ্যাটজিপিটি, এললামা ও ডিপসিক বিভিন্ন ক্ষেত্রে মানুষের জন্য সহজ করে তথ্য উপস্থাপন করছে। কিন্তু সাম্প্রতিক গবেষণায় দেখা গেছে, এই চ্যাটবটগুলো বিজ্ঞানভিত্তিক গবেষণাপত্রের সারাংশ তৈরি করতে গিয়ে অনেক সময় অত্যধিক সাধারণীকরণ করে গুরুত্বপূর্ণ তথ্য বাদ দেয় বা ভুল ব্যাখ্যা তৈরি করে। এর ফলে গবেষণার মূল বক্তব্যের প্রভাব ও তাৎপর্য অনেকাংশে বিকৃত হয়।
গবেষণার মূল ফলাফল: পাঁচ গুণ বেশি তথ্য সরলীকরণ
জার্নাল ‘রয়্যাল সোসাইটি ওপেন সায়েন্স’-এ প্রকাশিত এক গবেষণায় প্রায় ৪,৯০০ গবেষণাপত্রের সারাংশ বিশ্লেষণ করা হয়েছে। গবেষণায় দেখা গেছে, চ্যাটজিপিটি, এললামা ও ডিপসিকের বিভিন্ন সংস্করণ মানব বিশেষজ্ঞদের তুলনায় পাঁচ গুণ বেশি তথ্য সরলীকরণ বা সাধারণীকরণ করে। বিশেষ করে নতুন মডেলগুলো পুরোনো সংস্করণগুলোর চেয়ে আরও বেশি ভুল তথ্য এবং অতিরিক্ত সরল সারাংশ তৈরিতে ঝুঁকিপূর্ণ।
অতিরিক্ত সরলীকরণে ঝুঁকি ও বিপদ
গবেষকরা উল্লেখ করেছেন, সাধারণীকরণ অনেক সময় দরকার হলেও অতিরিক্ত সরলীকরণ গবেষণার মূল অর্থ এবং তথ্য হারিয়ে দেয়। ইউনিভার্সিটি অব বনের পোস্টডক্টরাল গবেষক উভে পিটার্স বলেন, “সাধারণীকরণ এমন এক সময় গবেষণার মুল বক্তব্য পরিবর্তন করতে পারে, যা খুবই বিপজ্জনক।”
তাঁর মতে, গবেষণায় এমন একটি পদ্ধতি উপস্থাপন করা হয়েছে যা চ্যাটবট কোন জায়গায় অতিরিক্ত সাধারণীকরণ করছে তা সনাক্ত করতে সাহায্য করে।
বৈজ্ঞানিক গবেষণায় সাধারণীকরণের সীমাবদ্ধতা
বৈজ্ঞানিক গবেষণার ফলাফল বিশ্লেষণে নির্দিষ্ট সীমাবদ্ধতা, প্রেক্ষাপট, সতর্কতা এবং বিস্তারিত ব্যাখ্যা থাকে। এসব জটিল তথ্যকে সহজ করে প্রকাশ করা সহজ নয়। বিশেষ করে চিকিৎসাবিজ্ঞান, প্রকৌশল ও প্রযুক্তি ক্ষেত্রে তথ্যের সঠিকতা ও নির্ভুলতা অপরিহার্য।
গবেষকরা জানিয়েছেন, এলএলএম মডেলগুলো বিভিন্ন স্তরের প্রক্রিয়ার মাধ্যমে তথ্য সংক্ষিপ্ত করে, যার ফলে গবেষণার সূক্ষ্ম অর্থ অনেক সময় হারিয়ে যায়। আগের প্রজন্মের চ্যাটবটগুলো যেখানে কঠিন প্রশ্নে বিরক্তিকর বা অনির্ভরযোগ্য উত্তর দিত, নতুন মডেলগুলো এখন আত্মবিশ্বাসী ভঙ্গিতে ভুল তথ্য দিতে বেশি প্রবণ।
বাস্তব উদাহরণ: চিকিৎসাবিষয়ক ভুল তথ্য
গবেষণায় উল্লেখ রয়েছে, একটি চিকিৎসাবিষয়ক গবেষণাপত্রে লেখা ছিল, “চিকিৎসা পদ্ধতিটি নিরাপদ ও সফলভাবে সম্পন্ন করা সম্ভব।” কিন্তু ডিপসিকের এআই এই অংশকে অনুবাদ করেছে, “এটি নিরাপদ এবং কার্যকর চিকিৎসা পদ্ধতি।”
এমন সাধারণীকরণ চিকিৎসাবিজ্ঞানীদের জন্য বিপজ্জনক হতে পারে, কারণ এর মাধ্যমে চিকিৎসার ঝুঁকি বা সীমাবদ্ধতা উপেক্ষিত হয়। আরেকটি উদাহরণ হিসেবে, এললামা একটি ওষুধের ডোজ, ব্যবহারের সময়সীমা এবং প্রভাবসংক্রান্ত তথ্য বাদ দিয়ে সারাংশ তৈরি করেছে, যা ওষুধটির কার্যকারিতার ব্যাপ্তি অতিরিক্ত বাড়িয়ে দিয়েছে। এর ফলে ভুল চিকিৎসা প্রয়োগের সম্ভাবনা বেড়ে যায়।
বিভিন্ন মডেলের পারফরমেন্স ও ফলাফল
গবেষণায় চ্যাটজিপিটির চারটি, ক্লদের তিনটি, এললামার দুটি ও ডিপসিকের একটি সংস্করণ বিশ্লেষণ করা হয়েছে। চাওয়া হয়েছিল, চ্যাটবটগুলো মানুষের তৈরি সারাংশ থেকে কতটা বেশি সাধারণীকরণ করে এবং নির্ভুলতার ওপর জোর দিলে তা উন্নত হয় কিনা।
ফলাফল অনুযায়ী, ক্লদ ছাড়া সব মডেলই অতিরিক্ত সাধারণীকরণের ক্ষেত্রে নেতিবাচক ফলাফল দেখিয়েছে। নির্ভুলতার ওপর জোর দিলে তারা আরও বেশি অতিরঞ্জিত ও ভুল তথ্য দিয়ে সারাংশ তৈরি করেছে। মানুষের তৈরি সারাংশের তুলনায় প্রায় পাঁচ গুণ বেশি সাধারণীকরণ দেখা গেছে।
পরিমাণগত তথ্যের ভুল উপস্থাপনা
গবেষকরা আরও বলেন, পরিমাণগত তথ্য যেমন সংখ্যার ভুল উপস্থাপন সবচেয়ে বেশি ঝুঁকিপূর্ণ। চিকিৎসার ক্ষেত্রে এই ভুল তথ্য রোগীর জন্য মারাত্মক হতে পারে। উদাহরণস্বরূপ, একটি চিকিৎসার ক্ষেত্রে নির্দিষ্ট ডোজ এবং প্রয়োগের সময়সীমার ভুল ব্যাখ্যা রোগীর সঠিক চিকিৎসা থেকে বিরত রাখতে পারে।
বিশেষজ্ঞদের মতামত ও ভবিষ্যৎ দিকনির্দেশনা
ক্লিনিক্যাল মেন্টাল হেলথ এআই কোম্পানি ‘লিম্বিক’-এর ভাইস প্রেসিডেন্ট ম্যাক্স রোলওয়েজ বলেন, “চ্যাটবটগুলোর পক্ষপাত বা ভুল তথ্য সবসময় দৃশ্যমান হয় না, অনেক সময় তা নিঃশব্দে বা পরোক্ষভাবে ঘটে। মেডিকেল ক্ষেত্রে চ্যাটবটের ব্যবহার রুটিন কাজের অংশ হওয়ায়, এর নির্ভরযোগ্যতা যাচাই জরুরি।”
কানাডাভিত্তিক ‘প্রাইভেট এআই’ কোম্পানির সিইও প্যাট্রিসিয়া থেইন মনে করেন, ভবিষ্যৎ গবেষণায় আরও বিস্তৃত পরীক্ষা-নিরীক্ষা দরকার। শুধু ইংরেজি নয়, অন্যান্য ভাষায় ও বিভিন্ন বৈজ্ঞানিক ক্ষেত্রে এ সমস্যা কতটা প্রবল, তা খতিয়ে দেখা উচিত।
চ্যাটবটের ওপর মানুষের বিজ্ঞান বোঝার নির্ভরতা
পিটার্স বলেন, “চ্যাটজিপিটি, ক্লদ ও ডিপসিকের মতো টুলগুলো এখন মানুষের জন্য বিজ্ঞান বোঝার অন্যতম মাধ্যম হয়ে উঠেছে। এই মডেলগুলোর ওপর নির্ভরতা বৃদ্ধি পেলে আমরা বৃহৎ মাত্রায় ভুল তথ্যের ঝুঁকিতে পড়তে পারি, যেখানে জনসাধারণের বৈজ্ঞানিক আস্থা ও জ্ঞান ইতিমধ্যে সংকটাপন্ন।”
থেইন যোগ করেন, “এই মডেলগুলো প্রাথমিক উৎস নয় বরং সহজবোধ্য বিজ্ঞান সাংবাদিকতা থেকে প্রশিক্ষিত। তাই তারা সেই সরলীকরণ ও ভুল ধারণাও ধরে রাখে।”
বিশেষায়িত ক্ষেত্রে মডেল ব্যবহারের সতর্কতা
গবেষকরা বলছেন, সাধারণ উদ্দেশ্যে তৈরি এই মডেলগুলো যখন বিশেষায়িত ক্ষেত্রে বিশেষজ্ঞ পরামর্শ ছাড়া ব্যবহার করা হয়, তখন এটি প্রযুক্তির গুরুতর অপব্যবহার হয়ে দাঁড়ায়। বিশেষ করে এমন ক্ষেত্রে, যেখানে সুনির্দিষ্ট প্রশিক্ষণ ও কঠোর নিয়ম থাকা প্রয়োজন।
বৈজ্ঞানিক তথ্য সরলীকরণে সতর্কতা জরুরি
বর্তমানের চ্যাটবটগুলো মানব জীবনের বিভিন্ন ক্ষেত্রে বিপ্লব ঘটাচ্ছে, তবে বৈজ্ঞানিক তথ্য উপস্থাপনায় তাদের সীমাবদ্ধতা এবং ভুল তথ্যের ঝুঁকি উন্মোচিত হওয়ায় এগুলো ব্যবহারে সতর্কতা অবলম্বন করা অপরিহার্য। ভবিষ্যতে উন্নত ও নির্ভরযোগ্য কৃত্রিম বুদ্ধিমত্তা তৈরি করার জন্য গবেষণা আরও গভীর ও ব্যাপক হওয়া দরকার।