প্রযুক্তি

প্রতি সপ্তাহে ১০ লাখ মানুষ চ্যাটজিপিটিকে জানায় আত্মহত্যার ইচ্ছা

Advertisement

প্রযুক্তির উন্নতি মানবজীবনকে যেমন সহজ করেছে, তেমনি নতুন সংকটও তৈরি করেছে। সেই সংকটের এক ভয়াবহ চিত্র উঠে এসেছে সম্প্রতি ওপেনএআই-এর এক প্রতিবেদন থেকে। যুক্তরাষ্ট্রভিত্তিক এই কৃত্রিম বুদ্ধিমত্তা (এআই) নির্মাতা প্রতিষ্ঠান জানায়, প্রতি সপ্তাহে ১০ লাখেরও বেশি মানুষ চ্যাটজিপিটির কাছে আত্মহত্যা করার ইচ্ছা বা পরিকল্পনা সম্পর্কিত বার্তা পাঠাচ্ছেন।

বিশ্বখ্যাত সংবাদমাধ্যম দ্য গার্ডিয়ান জানায়, ওপেনএআই সোমবার এক ব্লগপোস্টে এই উদ্বেগজনক তথ্য প্রকাশ করেছে। প্রতিষ্ঠানটি জানিয়েছে, এই বার্তাগুলির মধ্যে অনেকগুলিই “স্পষ্ট আত্মহত্যার ইঙ্গিত” বহন করে।

মানসিক স্বাস্থ্যের জন্য কৃত্রিম বুদ্ধিমত্তা: আশীর্বাদ না অভিশাপ?

চ্যাটজিপিটি মূলত একটি কথোপকথনভিত্তিক কৃত্রিম বুদ্ধিমত্তা মডেল। এটি ব্যবহারকারীদের প্রশ্নের উত্তর দেয়, তথ্য সরবরাহ করে এবং অনেক সময় মানসিক সান্ত্বনা দিতেও ভূমিকা রাখে। কিন্তু সাম্প্রতিক পরিসংখ্যান বলছে, এই কথোপকথনগুলো অনেক ক্ষেত্রেই এক ভয়াবহ মানসিক সংকটের প্রতিফলন।

ওপেনএআই জানিয়েছে, প্রতি সপ্তাহে প্রায় ০.০৭ শতাংশ সক্রিয় ব্যবহারকারী—অর্থাৎ প্রায় ৫ লাখ ৬০ হাজার মানুষ—চ্যাটজিপিটির সঙ্গে এমন কথোপকথন করেন, যা “জরুরি মানসিক স্বাস্থ্য সমস্যার সম্ভাব্য লক্ষণ” নির্দেশ করে।

আত্মহত্যার চিন্তা ও এআই-এর দায়িত্ব

এই তথ্য শুধু সংখ্যা নয়, এটি এক গভীর সামাজিক ও মানবিক সংকটের প্রতিফলন। বিশেষজ্ঞরা বলছেন, প্রযুক্তি যত উন্নত হচ্ছে, মানুষ তত একা হয়ে পড়ছে। বাস্তব জীবনে মানসিক সহায়তার অভাব মানুষকে অনলাইন জগতে ঠেলে দিচ্ছে, যেখানে তারা সহানুভূতি খুঁজছে — এমনকি কৃত্রিম বুদ্ধিমত্তার কাছেও।

মনোবিজ্ঞানী ড. এলিন টেলর বলেন, “মানুষ যখন বাস্তব জীবনে শোনা বা বোঝার সুযোগ পায় না, তখন তারা ডিজিটাল প্ল্যাটফর্মে নিজের মনের কথা খুলে বলে। চ্যাটজিপিটি বা অন্যান্য এআই টুল তাদের কাছে নিরাপদ মনে হয়, কারণ এখানে বিচার বা সমালোচনার ভয় থাকে না।”

এক কিশোরের মৃত্যুর পর আইনি জটিলতা

এই বিষয়টি আরও আলোচনায় আসে যুক্তরাষ্ট্রের এক কিশোরের আত্মহত্যার পর। পরিবারের অভিযোগ, কিশোরটি মৃত্যুর আগে দীর্ঘ সময় চ্যাটজিপিটির সঙ্গে কথোপকথনে লিপ্ত ছিল। সেই কথোপকথনে সে নিজের হতাশা, ভয় এবং আত্মহত্যার চিন্তা ব্যক্ত করেছিল বলে ধারণা করা হয়।

পরিবারটি ওপেনএআই-এর বিরুদ্ধে মামলা করে দাবি করেছে, প্রতিষ্ঠানটি তাদের এআই চ্যাটবটের আচরণ পর্যবেক্ষণ ও নিয়ন্ত্রণে যথেষ্ট পদক্ষেপ নেয়নি। এই মামলার পর ওপেনএআই তাদের সিস্টেমের নিরাপত্তা বাড়ানোর উদ্যোগ নেয়।

ওপেনএআই-এর নতুন উদ্যোগ ও সতর্কতা

ওপেনএআই জানিয়েছে, সাম্প্রতিক GPT-5 আপডেটে চ্যাটজিপিটির আচরণ আরও সংযত করা হয়েছে। সংবেদনশীল বিষয়ের ক্ষেত্রে এখন এটি ব্যবহারকারীর কথার প্রেক্ষিতে সাবধানী প্রতিক্রিয়া দেয় এবং প্রয়োজনে মানসিক স্বাস্থ্য সহায়তা সংস্থার পরামর্শ দেয়।

তবে প্রতিষ্ঠানটি সতর্ক করে জানিয়েছে, আত্মহত্যা বা মানসিক সংকট সংক্রান্ত কথোপকথন শনাক্ত করা অত্যন্ত কঠিন। কারণ, ব্যবহারকারীর লেখা বা কথার মাধ্যমে সঠিকভাবে মানসিক অবস্থান বোঝা সবসময় সম্ভব নয়। ওপেনএআই বলেছে, “এটি শুধুমাত্র প্রাথমিক বিশ্লেষণ, যা থেকে সুনির্দিষ্ট সিদ্ধান্তে আসা যাবে না।”

বিশ্বজুড়ে মানসিক স্বাস্থ্য সংকট

বিশ্ব স্বাস্থ্য সংস্থা (WHO)-এর তথ্যমতে, প্রতি বছর প্রায় ৮ লাখ মানুষ আত্মহত্যা করে। প্রতিদিন গড়ে ২,২০০-এরও বেশি মানুষ নিজের জীবন শেষ করে দেয়। কিশোর-কিশোরীদের মধ্যে আত্মহত্যা এখন অন্যতম প্রধান মৃত্যুর কারণ।

করোনাভাইরাস মহামারির পর থেকে মানসিক স্বাস্থ্যের সংকট আরও তীব্র হয়েছে। অনেক মানুষ চাকরি হারিয়েছে, সম্পর্ক ভেঙেছে, একাকীত্ব বেড়েছে। এই সময়ে অনেকে চ্যাটজিপিটির মতো টুল ব্যবহার করে মানসিক সান্ত্বনা বা পরামর্শ খোঁজেন।

চ্যাটজিপিটি: সহায়তা না সমাধান?

চ্যাটজিপিটি কখনওই একজন পেশাদার মনোরোগ বিশেষজ্ঞের বিকল্প নয় — এটি ওপেনএআই নিজেই স্বীকার করেছে। তবুও ব্যবহারকারীরা প্রায়ই এটিকে একজন “বন্ধু” বা “মনোবিদ” হিসেবে ব্যবহার করছেন।

কৃত্রিম বুদ্ধিমত্তা বিশেষজ্ঞ অ্যান্ড্রু ডেভিস বলেন, “চ্যাটজিপিটি হয়তো সহানুভূতিপূর্ণ ভাষায় সাড়া দেয়, কিন্তু এটি আসলে একটি অ্যালগরিদম। এটি অনুভূতি বুঝতে পারে না, কেবল শিখে নেওয়া তথ্যের ভিত্তিতে প্রতিক্রিয়া জানায়।”

তিনি আরও বলেন, “যখন কেউ হতাশার মধ্যে থেকে ‘আমি আর বাঁচতে চাই না’ বলে, তখন চ্যাটজিপিটি যদি যথাযথ প্রতিক্রিয়া না দেয়, তা হতে পারে বিপজ্জনক।”

নৈতিকতা ও এআই প্রযুক্তির সীমাবদ্ধতা

এআই প্রযুক্তি যত উন্নত হচ্ছে, ততই বাড়ছে নৈতিকতা ও দায়বদ্ধতা নিয়ে প্রশ্ন। একজন মানুষের মানসিক সংকটের সময় কৃত্রিম বুদ্ধিমত্তা কতটা সাহায্য করতে পারে? সে কি ‘সহানুভূতি’ বুঝতে পারে? নাকি কেবল শেখা ডেটার উপর নির্ভর করে প্রতিক্রিয়া দেয়?

বিশ্লেষকরা বলছেন, এআই-এর প্রধান দুর্বলতা হলো—এটির মানবিক সংবেদনশীলতা নেই। এটি কেবল ‘প্রোগ্রামড প্রতিক্রিয়া’ দেয়। ফলে আত্মহত্যার মতো গুরুতর মানসিক ইস্যুতে ভুল প্রতিক্রিয়া দিলে সেটি ব্যবহারকারীর জীবনকেও ঝুঁকিতে ফেলতে পারে।

মানসিক স্বাস্থ্য সহায়তায় প্রযুক্তির ইতিবাচক দিক

তবে সব দিক থেকেই চিত্রটি অন্ধকার নয়। অনেক প্রতিষ্ঠান এখন কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে মানসিক স্বাস্থ্য সহায়তা অ্যাপ তৈরি করছে। যেমন—Woebot, Replika, Wysa ইত্যাদি প্ল্যাটফর্মগুলো মানুষকে উদ্বেগ, একাকীত্ব ও বিষণ্নতা মোকাবিলায় সাহায্য করছে।

এই অ্যাপগুলো ব্যবহারকারীদের নিয়মিত কথোপকথনের মাধ্যমে তাদের মানসিক অবস্থা বিশ্লেষণ করে ইতিবাচক পরামর্শ দেয়। তবে বিশেষজ্ঞরা বলছেন, এই টুলগুলো ব্যবহার করা যেতে পারে “সহায়ক হিসেবে”, কিন্তু “চিকিৎসক হিসেবে” নয়।

ভবিষ্যতের করণীয়

বিশেষজ্ঞরা বলছেন, ওপেনএআই ও অন্যান্য প্রযুক্তি প্রতিষ্ঠানগুলোর এখন প্রয়োজন মানুষের মানসিক স্বাস্থ্য সুরক্ষায় বিশেষ উদ্যোগ নেওয়া। যেমন—

  • আত্মহত্যা বা হতাশা সম্পর্কিত কীওয়ার্ড শনাক্ত হলে ব্যবহারকারীকে তাৎক্ষণিকভাবে সহায়তা কেন্দ্রের লিঙ্ক দেওয়া।
  • এআই সিস্টেমকে প্রশিক্ষণ দেওয়া যেন এটি মানসিক সংকটের ইঙ্গিত শনাক্ত করে যথাযথ প্রতিক্রিয়া জানাতে পারে।
  • সরকার ও প্রযুক্তি কোম্পানির যৌথ উদ্যোগে “এআই সেফটি গাইডলাইন” তৈরি করা।
  • স্কুল, কলেজ ও সামাজিক পর্যায়ে মানসিক স্বাস্থ্য সচেতনতা বৃদ্ধি করা।

প্রতি সপ্তাহে ১০ লাখ মানুষ যখন চ্যাটজিপিটিকে নিজের আত্মহত্যার ইচ্ছা জানায়, তখন এটি কেবল একটি প্রযুক্তিগত নয়, বরং মানবিক বিপর্যয়েরও ইঙ্গিত দেয়। এআই যতই উন্নত হোক না কেন, মানবিক সহানুভূতি ও আন্তরিকতার বিকল্প কখনও হতে পারে না।

চ্যাটজিপিটি হয়তো অনেক প্রশ্নের উত্তর দিতে পারে, কিন্তু মানুষের ভেতরের যন্ত্রণা, একাকীত্ব বা আশার আলো জ্বালানোর শক্তি কেবল মানুষই দিতে পারে। তাই প্রযুক্তির পাশাপাশি মানবিকতার বিকাশই আজকের সবচেয়ে বড় প্রয়োজন।

MAH – 13524 I Signalbd.com

মন্তব্য করুন
Advertisement

Related Articles

Back to top button