কৃত্রিম বুদ্ধিমত্তার যুগে সত্য-মিথ্যার লড়াই

ইয়াসির আবরার | সোমবার , ১৮ আগস্ট, ২০২৫ at ৮:৫২ পূর্বাহ্ণ

২১ শতকের প্রযুক্তিদৌড়ে কৃত্রিম বুদ্ধিমত্তা (এআই) এখন আমাদের দৈনন্দিন জীবনের অবিচ্ছেদ্য অংশ। স্মার্টফোনের ভাষা সহকারী থেকে শুরু করে হাসপাতালের রোগ নির্ণয়, ব্যাংকের লেনদেন নিরাপত্তা থেকে কৃষিক্ষেত্রে সঠিক সময়ে সেচ দেওয়া সবখানেই এআইয়ের ছোঁয়া রয়েছে। কিন্তু এই উন্নতির পাশাপাশি, এআই তৈরি করেছে এক নতুন চ্যালেঞ্জ সত্য ও মিথ্যার সীমারেখা ক্রমশ মুছে যাচ্ছে। ভুয়া খবর এবং ডীপফেইকের মতো প্রযুক্তি এখন এমন পর্যায়ে পৌঁছেছে যে, সাধারণ মানুষ তো বটেই, বিশেষজ্ঞের পক্ষেও অনেক সময় তাৎক্ষণিকভাবে আসল ও নকল পার্থক্য করা কঠিন হয়ে পড়ছে। ফলে সমাজে বিভ্রান্তি, আস্থার সংকট, এমনকি গণতন্ত্রের প্রক্রিয়াও ক্ষতিগ্রস্ত হচ্ছে। ডীপফেইক শব্দটির উৎপত্তি এসেছে ‘ডীপ লার্নিং’ এবং ‘ফেইক’ শব্দের মিলন থেকে। এটি মূলত এমন একটি প্রযুক্তি, যা কৃত্রিম বুদ্ধিমত্তার সাহায্যে বিদ্যমান ছবি বা ভিডিওতে মুখ, কণ্ঠ বা ভঙ্গিমা পরিবর্তন করে সম্পূর্ণ ভুয়া কন্টেন্ট তৈরি করে। ২০১৯ থেকে ২০২৪ সালের মধ্যে ডীপফেইক ভিডিওর সংখ্যা বিশ্বজুড়ে বেড়েছে প্রায় ৫৫০ শতাংশ। ২০২৪ সালেই প্রায় পাঁচ লাখ ডীপফেইক ভিডিও অনলাইনে ছড়িয়েছে। অর্থাৎ প্রায় প্রতিদিনই হাজার হাজার নতুন ভুয়া ভিডিও তৈরি হচ্ছে। একসময় এই প্রযুক্তি তৈরি করতে উচ্চমানের যন্ত্রপাতি, বড় ডেটাসেট ও প্রযুক্তিগত দক্ষতা প্রয়োজন হতো। এখন বিনামূল্যে বা স্বল্পমূল্যের অ্যাপ ও ওয়েবসাইটে কয়েক মিনিটেই উচ্চমানের ডীপফেইক তৈরি করা সম্ভব। বাজার গবেষণা প্রতিষ্ঠানগুলোর তথ্য বলছে, ২০২৪ সালের শেষে ডীপফেইক সংক্রান্ত বৈশ্বিক বাজারের মূল্য দাঁড়ায় প্রায় উনআশি মিলিয়ন ডলার। একই সঙ্গে ব্যবসায়িক ক্ষতির দিক থেকেও এটি একটি গুরুতর হুমকি। ২০২৪ সালে প্রায় অর্ধেক আন্তর্জাতিক প্রতিষ্ঠান অডিও ও ভিডিও ডীপফেইকের মাধ্যমে প্রতারণার শিকার হয়েছে, যেখানে গড় ক্ষতির পরিমাণ ছিল প্রায় চার লক্ষ পঞ্চাশ হাজার মার্কিন ডলারের সমান। ডীপফেইকের পাশাপাশি ভুয়া খবরও এখন এআই দ্বারা আরও দ্রুত ও বিশ্বাসযোগ্যভাবে তৈরি হচ্ছে। ২০২৩ সালে নিউসগার্ডের জরিপে দেখা যায়, মাত্র এক বছরের মধ্যে এআইচালিত ভুয়া সংবাদ ওয়েবসাইটের সংখ্যা দশগুণ বেড়ে প্রায় ছয়শোতে পৌঁছেছে। অনেক ক্ষেত্রেই এই ওয়েবসাইটগুলো আসল খবরের মতো নকশা, ভাষা ও ভিজ্যুয়াল ব্যবহার করে, যা সাধারণ পাঠকের জন্য আলাদা করা কঠিন। গবেষণায় জানা যায়, ৮৩ শতাংশেরও বেশি মানুষ উদ্বিগ্ন যে নির্বাচনের সময় এআই ব্যবহার করে ভুয়া খবর ছড়ানো হতে পারে। এর প্রমাণও মিলেছে বিভিন্ন দেশে। উদাহরণস্বরূপ, যুক্তরাষ্ট্রের নির্বাচনের আগে প্রেসিডেন্ট জো বাইডেনের নামে ভুয়া ফোনকল পাঠিয়ে ভোটারদের বিভ্রান্ত করার চেষ্টা হয়েছিল। ফ্রান্সে রাজনীতিক মারিন ল্যো পেনের পরিবারের একটি মনগড়া ভিডিও ছড়ানো হয়েছিল, যা সামাজিক মাধ্যমে ব্যাপক সাড়া ফেলে। রাজনৈতিক প্রভাব বিস্তারে ডীপফেইক এখন একটি কৌশলগত হাতিয়ারে পরিণত হয়েছে। যদিও যুক্তরাষ্ট্র, যুক্তরাজ্য ও ইউরোপীয় ইউনিয়নের সাম্প্রতিক নির্বাচনে এআইনির্মিত ভুল তথ্যের প্রকৃত সংখ্যা মোটের উপর সীমিত ছিল। যুক্তরাষ্ট্রে ছড়ানো ভুল তথ্যের মাত্র ছয় শতাংশ এআই দ্বারা তৈরি তবুও এর সম্ভাব্য প্রভাবকে হালকা করে দেখা যায় না। কিছু ক্ষেত্রে এ প্রযুক্তি সরাসরি প্রতারণার জন্য নয়, বরং রাজনৈতিক বার্তা পৌঁছাতে ব্যবহৃত হয়েছে। উদাহরণস্বরূপ, কল্পিত দৃশ্য বা প্রতীকী ভিডিও তৈরি করে প্রতিপক্ষের ভাবমূর্তি নষ্ট করার চেষ্টা করা হয়েছে। চীন আন্তর্জাতিক প্রচারণায় এআইতৈরি সংবাদ পাঠক ব্যবহার করেছে, যার মাধ্যমে তাইওয়ানের নেত্রী সাই ইংওয়েন সম্পর্কে পক্ষপাতমূলক সমালোচনা প্রচার করা হয়েছে। ডীপফেইক ও ভুয়া খবরের সবচেয়ে গভীর প্রভাব পড়ছে মানুষের আস্থার ওপর। অনেক সময় কেউ আসল ভিডিও বা খবর দেখেও সন্দেহ করে সেটিকে মিথ্যা বলে ধরে নিচ্ছে। এই প্রবণতাকে গবেষকরা ‘মিথ্যাবাদীর সুবিধা’ বা ‘লায়ারের ডিভিডেন্ড’ নামে অভিহিত করেছেন। এর ফলে সত্য প্রমাণ করা ক্রমশ কঠিন হয়ে পড়ছে, কারণ যেকোনো ব্যক্তি তার বিরুদ্ধে প্রমাণ থাকা সত্ত্বেও দাবি করতে পারে যে সেটি ভুয়া। আরও ভয়াবহ হলো ব্যক্তিগত মর্যাদা ও মানসিক স্বাস্থ্যের ওপর প্রভাব। যুক্তরাজ্যের এক স্কুলে ১৬ বছরের এক কিশোর এআইচালিত একটি অ্যাপের মাধ্যমে তার নগ্ন ডীপফেইক ছবি তৈরি ও ছড়িয়ে দেওয়ার ঘটনার শিকার হয়। ব্ল্যাকমেল ও মানসিক চাপে সে শেষ পর্যন্ত আত্মহত্যা করে। এমন ঘটনা কেবল একটি উদাহরণ; বিশ্বজুড়ে অনেক কিশোরকিশোরী ও নারী এই ধরনের প্রযুক্তিগত হয়রানির শিকার হচ্ছেন। ডীপফেইক শনাক্ত করার ক্ষমতা মানুষের মধ্যে সীমিত। গবেষণায় দেখা গেছে, মানুষ গড়ে মাত্র ৫৫ থেকে ৬২ শতাংশ ক্ষেত্রে ছবি বা ভিডিও সঠিকভাবে চিনতে পারে, আর ভিডিওর ক্ষেত্রে শনাক্তকরণের হার নেমে আসে প্রায় ২৪ শতাংশে। অর্থাৎ অর্ধেকের বেশি সময় মানুষ ভুল করতে পারে। এই সীমাবদ্ধতা দূর করতে প্রযুক্তিগত সমাধান প্রয়োজন। বর্তমানে বিভিন্ন গবেষণা প্রতিষ্ঠান ও প্রযুক্তি কোম্পানি কৃত্রিম বুদ্ধিমত্তার সাহায্যে ডীপফেইক শনাক্তকারী সফটওয়্যার তৈরি করছে, যা তাৎক্ষণিকভাবে ভুয়া ভিডিও বা অডিও শনাক্ত করতে সক্ষম। এর মধ্যে কিছু সিস্টেম আইনপ্রয়োগকারী সংস্থা ও সংবাদমাধ্যমকে বিনামূল্যে সরবরাহ করা হচ্ছে। ডীপফেইক ও ভুয়া খবরের ঝুঁকি মোকাবিলায় অনেক দেশ আইন ও নীতি গ্রহণ করেছে। ইউরোপীয় ইউনিয়নে কার্যকর হয়েছে এআই আইন, জিডিপিআর এবং ডিজিটাল সার্ভিসেস অ্যাক্ট; যুক্তরাজ্যে প্রণীত হয়েছে অনলাইন সেফটি অ্যাক্ট ২০২৩; চীন বাস্তবায়ন করছে ডীপ সিনথেসিস প্রবিধান। এসব আইনের লক্ষ্য হলো এআই প্রযুক্তির অপব্যবহার রোধ করা, ব্যক্তিগত গোপনীয়তা রক্ষা করা এবং তথ্যের বিশ্বাসযোগ্যতা নিশ্চিত করা। তবে কেবল আইন প্রণয়ন করলেই হবে না। জনগণের মধ্যে গণমাধ্যম সাক্ষরতা বৃদ্ধি করতে হবে। মানুষকে শেখাতে হবে কীভাবে ছবি, ভিডিও বা সংবাদ যাচাই করতে হয়, উৎস খুঁজে বের করতে হয়, এবং আবেগপ্রবণ প্রতিক্রিয়ার আগে তথ্য নিশ্চিত করতে হয়। কৃত্রিম বুদ্ধিমত্তা মানব সভ্যতার জন্য অপরিসীম সম্ভাবনার দরজা খুলে দিয়েছে। কিন্তু সেই সম্ভাবনার সঙ্গে এসেছে নতুন ধরনের ঝুঁকি, যা সত্যমিথ্যার সীমারেখা ঘোলাটে করে দিচ্ছে। ভুয়া খবর ও ডীপফেইকের মতো প্রযুক্তি শুধু ব্যক্তিগত ক্ষতি করছে না, সামাজিক আস্থা ও গণতন্ত্রের ভিত্তিও নাড়িয়ে দিচ্ছে। এই লড়াইয়ে জেতার জন্য আমাদের দরকার প্রযুক্তিভিত্তিক প্রতিরোধ ব্যবস্থা, কার্যকর আইন এবং জনগণের মধ্যে সচেতনতা বৃদ্ধি। নইলে একদিন হয়তো আমরা সত্যকে চিনতে ভুল করব, আর তখন আর ফিরে যাওয়ার পথ খোলা থাকবে না। সত্য রক্ষার লড়াই তাই আজই শুরু করা জরুরি।

লেখক: গবেষক।

পূর্ববর্তী নিবন্ধশিক্ষাপ্রতিষ্ঠানগুলোর টয়লেটের প্রতি কেন এত অবহেলা
পরবর্তী নিবন্ধসন্তানের স্কুল পারফরমেন্স উন্নতিকল্পে বহুমুখী পদক্ষেপ নিতে হবে