সংক্ষিপ্ত
লোকসভা নির্বাচনের আবহে ডিপফেক নিয়ে নতুন করে উদ্বেগ তৈরি হয়েছে। ভোটারদের প্রভাবিত করার জন্য এই প্রযুক্তি ব্যবহার করা হচ্ছে বলে সন্দেহ করা হচ্ছে।
লোকসভা নির্বাচনের প্রচারে ব্যবহার করা হচ্ছে ডিপফেক প্রযুক্তি। ৭৫ শতাংশের বেশি ভারতীয় জানিয়েছেন, তাঁরা ডিপফেক প্রযুক্তির মাধ্যমে তৈরি নকল ছবি, ভিডিও দেখতে পেয়েছেন। ২২ শতাংশ ভারতীয় জানিয়েছেন, তাঁরা সম্প্রতি বিভিন্ন প্রার্থীর বিষয়ে এমন কিছু ছবি, ভিডিও বা অডিও রেকর্ডিং পেয়েছেন যেগুলিতে প্রযুক্তির মাধ্যমে কারসাজি করা হয়েছে। কম্পিউটার নিরাপত্তা বিষয়ক সংস্থা ম্যাকাফির রিপোর্টে এই তথ্য উঠে এসেছে। এর ফলে দেশজুড়ে উদ্বেগ তৈরি হয়েছে। লোকসভা নির্বাচনের পাশাপাশি আইপিএল-এও ডিপফেক প্রযুক্তির অপব্যবহার করা হচ্ছে বলে সন্দেহ করা হচ্ছে। সবচেয়ে বেশি উদ্বেগের ব্যাপার হল, কৃত্রিম বুদ্ধিমত্তার অপব্যবহার করে ছবি, ভিডিওতে যে ধরনের কারসাজি করা হচ্ছে, তাতে কোনটা আসল আর কোনটা নকল, সেই পার্থক্য ধরতে পারছেন না বেশিরভাগ ভারতীয়। ফলে লোকসভা নির্বাচনের ফল প্রভাবিত হতে পারে বলে আশঙ্কা তৈরি হয়েছে।
জনজীবনে প্রভাব ফেলছে ডিপফেক?
ম্যাকাফির সমীক্ষায় দাবি করা হয়েছে, ভারতীয়দের দৈনন্দিন জীবনে প্রভাব ফেলছে কৃত্রিম বুদ্ধিমত্তা ও ডিপফেক প্রযুক্তি। এ বছরের গোড়ায় এই সমীক্ষা চালানো হয়েছে। প্রায় ২২ শতাংশ ভারতীয় জানিয়েছেন, তাঁরা এমন কিছু ভিডিও দেখেছেন যা প্রথমে আসল বলে মনে হলেও, পরে জানতে পেরেছেন সেই ভিডিওগুলি নকল। ৮ থেকে ১০ শতাংশ ভারতীয় জানিয়েছেন, গত বছরের তুলনায় এখন ডিপফেক নিয়ে উদ্বেগ বেড়েছে। ৬৪ শতাংশ ভারতীয় জানিয়েছেন, কৃত্রিম বুদ্ধিমত্তার ফলে অনলাইন প্রতারণা চিহ্নিত করা কঠিন হয়ে গিয়েছে। প্রায় ৩০ শতাংশ ভারতীয় অবশ্য জানিয়েছেন, তাঁরা ভয়েসমেল বা ভয়েস নোটের মাধ্যমে আসল-নকলের পার্থক্য বুঝতে সক্ষম।
প্রভাবশালী ব্যক্তিরাও ডিপফেকের শিকার
অভিনেত্রী রশ্মিকা মন্দানার ডিপফেক ভিডিও নিয়ে দেশজুড়ে উদ্বেগ তৈরি হয়েছিল। এরপর সচিন তেন্ডুলকর, বিরাট কোহলি, আমির খান, রণবীর সিংয়ের ডিপফেক ছবি বা ভিডিও দেখা গিয়েছে।
আরও খবরের আপডেট পেতে চোখ রাখুন আমাদের হোয়াটসঅ্যাপ চ্যানেলে, ক্লিক করুন এখানে।
আরও পড়ুন-
ডিপফেক ভিডিও শিকার খোদ প্রধানমন্ত্রী! ৯০ লক্ষ টাকার মানহানির মামলা দায়ের
Social Media Advisory: ডিপফেক উদ্বেগের মধ্যেই সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলিকে পরামর্শ কেন্দ্রের
Deepfake Video: রশ্মিকা-আলিয়ার পর এবার রতন টাটা! AI ব্যবহার করে বানানো ডিপফেক ভিডিওতে বিরাট বড় ফাঁদ