১৮ই মার্চ, ২০২৬ খ্রিস্টাব্দ
৪ঠা চৈত্র, ১৪৩২ বঙ্গাব্দ
২৯শে রমজান, ১৪৪৭ হিজরি

ইরান যুদ্ধ ও ‘এআই স্লপ’: মিনাবের কবরস্থানের ছবি নিয়ে বিভ্রান্তি ছড়াচ্ছে কৃত্রিম বুদ্ধিমত্তা

admin
প্রকাশিত ১৭ মার্চ, মঙ্গলবার, ২০২৬ ২০:১৩:৩০
ইরান যুদ্ধ ও ‘এআই স্লপ’: মিনাবের কবরস্থানের ছবি নিয়ে বিভ্রান্তি ছড়াচ্ছে কৃত্রিম বুদ্ধিমত্তা

Manual4 Ad Code

আন্তর্জাতিক ডেস্ক | ১৭ মার্চ, ২০২৬

Manual6 Ad Code

লন্ডন: ইরানে চলমান যুদ্ধের ভয়াবহতার প্রতীক হিসেবে সম্প্রতি একটি হৃদয়বিদারক ছবি বিশ্বজুড়ে আলোড়ন তুলেছে। ছবিতে দেখা যায়, ইরানের মিনাব শহরের একটি কবরস্থানে শতাধিক স্কুলছাত্রীর দাফনের জন্য সারি সারি নতুন কবর খোঁড়া হয়েছে। তবে এই বাস্তব ছবিটিকে ঘিরেই তৈরি হয়েছে চরম বিভ্রান্তি, যার মূলে রয়েছে কৃত্রিম বুদ্ধিমত্তা বা এআই-এর ভুল তথ্য বিশ্লেষণ।

Manual4 Ad Code

যুক্তরাজ্যভিত্তিক সংবাদমাধ্যম দ্য গার্ডিয়ান মঙ্গলবার (১৭ মার্চ) এক প্রতিবেদনে জানায়, যুদ্ধসংক্রান্ত তথ্যপ্রবাহে এআই-নির্ভর বিভ্রান্তি বা ‘এআই স্লপ’ এখন এক নতুন সংকট হিসেবে দাঁড়িয়েছে।

বাস্তব ছবি বনাম এআই-এর ভুল দাবি

সামাজিক যোগাযোগমাধ্যমে ছড়িয়ে পড়া মিনাব শহরের এই ছবিটিতে ৬০টিরও বেশি নতুন কবর এবং শোকাহত মানুষের জটলা দেখা যায়। কিন্তু ছবিটির সত্যতা যাচাই করতে গিয়ে বিভিন্ন এআই টুল পরস্পরবিরোধী ও ভুল তথ্য দেয়।

  • গুগল জেমিনি দাবি করে, এটি ইরানের ছবি নয়; বরং ২০২৩ সালে তুরস্কে ভূমিকম্পের পর ধারণ করা একটি গণকবরের দৃশ্য।

  • অন্যদিকে, মাইক্রোব্লগিং সাইট এক্স-এর এআই সহকারী গ্রোক জানায়, এটি ইন্দোনেশিয়ার জাকার্তায় কোভিড-১৯ মহামারির সময়ের ছবি।

গবেষকরা স্যাটেলাইট চিত্র এবং ভিডিও ফুটেজ বিশ্লেষণ করে নিশ্চিত করেছেন যে, এআই টুলগুলোর দেওয়া তথ্য সম্পূর্ণ ভুল এবং ছবিটি প্রকৃতপক্ষে ইরানের মিনাব শহরেরই।

তথ্যযুদ্ধে ‘এআই স্লপ’-এর দাপট

বিশেষজ্ঞরা বলছেন, ইরান যুদ্ধের খবরের সঙ্গে এখন যুক্ত হয়েছে ভুয়া ছবি ও কল্পিত তথ্যের বন্যা, যাকে বলা হচ্ছে ‘এআই স্লপ’। যুদ্ধের শুরু থেকেই এমন অনেক ছবি দেখা গেছে যা আদতে এআই দিয়ে তৈরি। উদাহরণস্বরূপ:

Manual6 Ad Code

  • কাতারে মার্কিন রাডার ধ্বংসের ভুয়া স্যাটেলাইট ছবি।

  • ইরানের সর্বোচ্চ নেতার মরদেহ উদ্ধারের দাবিতে প্রচারিত বিকৃত ছবি, যেখানে উদ্ধারকারীদের শরীরের অঙ্গপ্রত্যঙ্গে এআই-জনিত অসামঞ্জস্য ধরা পড়েছে।

    Manual4 Ad Code

বিবিসি ভ্যারিফাই-এর জ্যেষ্ঠ সাংবাদিক শায়ান সারদারিজাদেহ জানান, বর্তমানে ভাইরাল হওয়া ভুয়া তথ্যের প্রায় অর্ধেকই জেনারেটিভ এআই দিয়ে তৈরি।

কেন এই বিভ্রান্তি?

ওপেন-সোর্স গোয়েন্দা বিশ্লেষকদের মতে, এআই মূলত একটি ‘সম্ভাবনা-নির্ভর যন্ত্র’, সত্য যাচাইয়ের যন্ত্র নয়। এটি তথ্য যাচাই না করে সম্ভাব্য শব্দের সমন্বয়ে বিশ্বাসযোগ্য বাক্য তৈরি করে। ২০২৫ সালের এক গবেষণায় দেখা গেছে, এআই-উৎপাদিত প্রায় অর্ধেক সারাংশেই অন্তত একটি গুরুতর ভুল থাকে। কিছু ক্ষেত্রে ভুলের হার ৭৬ শতাংশ পর্যন্ত পৌঁছায়।

মানবিক উদ্বেগের কারণ

এই বিভ্রান্তির ফলে সবচেয়ে বড় ঝুঁকি হলো—ভবিষ্যতে মিনাবের কবরস্থানের মতো সত্যিকারের মর্মান্তিক ঘটনাকেও মানুষ ‘এআই-তৈরি’ বলে উড়িয়ে দিতে পারে। এতে মানবাধিকার তদন্তকারীদের কাজ ব্যাহত হচ্ছে এবং যুদ্ধের প্রকৃত ভয়াবহতা আড়ালে পড়ে যাওয়ার আশঙ্কা তৈরি হচ্ছে।

বিশেষজ্ঞদের মতে, এআই-এর ওপর অতি-নির্ভরশীলতা কেবল তথ্য বিভ্রান্তি নয়, বরং মানবিক দৃষ্টিকোণ থেকেও গভীরভাবে উদ্বেগজনক।