সংক্ষিপ্ত

লোকসভা নির্বাচনের আবহে ডিপফেক নিয়ে নতুন করে উদ্বেগ তৈরি হয়েছে। ভোটারদের প্রভাবিত করার জন্য এই প্রযুক্তি ব্যবহার করা হচ্ছে বলে সন্দেহ করা হচ্ছে।

লোকসভা নির্বাচনের প্রচারে ব্যবহার করা হচ্ছে ডিপফেক প্রযুক্তি। ৭৫ শতাংশের বেশি ভারতীয় জানিয়েছেন, তাঁরা ডিপফেক প্রযুক্তির মাধ্যমে তৈরি নকল ছবি, ভিডিও দেখতে পেয়েছেন। ২২ শতাংশ ভারতীয় জানিয়েছেন, তাঁরা সম্প্রতি বিভিন্ন প্রার্থীর বিষয়ে এমন কিছু ছবি, ভিডিও বা অডিও রেকর্ডিং পেয়েছেন যেগুলিতে প্রযুক্তির মাধ্যমে কারসাজি করা হয়েছে। কম্পিউটার নিরাপত্তা বিষয়ক সংস্থা ম্যাকাফির রিপোর্টে এই তথ্য উঠে এসেছে। এর ফলে দেশজুড়ে উদ্বেগ তৈরি হয়েছে। লোকসভা নির্বাচনের পাশাপাশি আইপিএল-এও ডিপফেক প্রযুক্তির অপব্যবহার করা হচ্ছে বলে সন্দেহ করা হচ্ছে। সবচেয়ে বেশি উদ্বেগের ব্যাপার হল, কৃত্রিম বুদ্ধিমত্তার অপব্যবহার করে ছবি, ভিডিওতে যে ধরনের কারসাজি করা হচ্ছে, তাতে কোনটা আসল আর কোনটা নকল, সেই পার্থক্য ধরতে পারছেন না বেশিরভাগ ভারতীয়। ফলে লোকসভা নির্বাচনের ফল প্রভাবিত হতে পারে বলে আশঙ্কা তৈরি হয়েছে।

জনজীবনে প্রভাব ফেলছে ডিপফেক?

ম্যাকাফির সমীক্ষায় দাবি করা হয়েছে, ভারতীয়দের দৈনন্দিন জীবনে প্রভাব ফেলছে কৃত্রিম বুদ্ধিমত্তা ও ডিপফেক প্রযুক্তি। এ বছরের গোড়ায় এই সমীক্ষা চালানো হয়েছে। প্রায় ২২ শতাংশ ভারতীয় জানিয়েছেন, তাঁরা এমন কিছু ভিডিও দেখেছেন যা প্রথমে আসল বলে মনে হলেও, পরে জানতে পেরেছেন সেই ভিডিওগুলি নকল। ৮ থেকে ১০ শতাংশ ভারতীয় জানিয়েছেন, গত বছরের তুলনায় এখন ডিপফেক নিয়ে উদ্বেগ বেড়েছে। ৬৪ শতাংশ ভারতীয় জানিয়েছেন, কৃত্রিম বুদ্ধিমত্তার ফলে অনলাইন প্রতারণা চিহ্নিত করা কঠিন হয়ে গিয়েছে। প্রায় ৩০ শতাংশ ভারতীয় অবশ্য জানিয়েছেন, তাঁরা ভয়েসমেল বা ভয়েস নোটের মাধ্যমে আসল-নকলের পার্থক্য বুঝতে সক্ষম।

প্রভাবশালী ব্যক্তিরাও ডিপফেকের শিকার

অভিনেত্রী রশ্মিকা মন্দানার ডিপফেক ভিডিও নিয়ে দেশজুড়ে উদ্বেগ তৈরি হয়েছিল। এরপর সচিন তেন্ডুলকর, বিরাট কোহলি, আমির খান, রণবীর সিংয়ের ডিপফেক ছবি বা ভিডিও দেখা গিয়েছে।

আরও খবরের আপডেট পেতে চোখ রাখুন আমাদের হোয়াটসঅ্যাপ চ্যানেলে, ক্লিক করুন এখানে।

আরও পড়ুন-

ডিপফেক ভিডিও শিকার খোদ প্রধানমন্ত্রী! ৯০ লক্ষ টাকার মানহানির মামলা দায়ের

Social Media Advisory: ডিপফেক উদ্বেগের মধ্যেই সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলিকে পরামর্শ কেন্দ্রের

Deepfake Video: রশ্মিকা-আলিয়ার পর এবার রতন টাটা! AI ব্যবহার করে বানানো ডিপফেক ভিডিওতে বিরাট বড় ফাঁদ