প্রতিটি প্রযুক্তিরই ভাল এবং খারাপ দিক আছে, এখন আপনি ব্যবহার করবেন কিভাবে সেটাই মুলত আসল। কৃত্রিম বুদ্ধিমত্তার ব্যবহার যেমন চিকিৎসা বিজ্ঞান সহ মানুষের দৈনন্দিন জীবনে অভুতপূর্ব উন্নয়ন এনে দিয়েছে ঠিক তার উল্টো চরিত্রে রয়েছে ডিপফেক ভিডিও প্রযুক্তি। বিশেষ করে মেয়েরা যারা সোশ্যাল মিডিয়াতে নিয়মিত সেলফি আপলোড করেন তাদের জন্য বিষয়টি একটু বেশিই উদ্বেগের কারন হতে যাচ্ছে সামনের দিনগুলোতে।
শুধুমাত্র একটি মাত্র ছবি দিয়ে একজনের যে কোন দৃশ্যের ভুয়া ভিডিও তৈরি করা সম্ভব এখন! বিশ্বাস করতে কষ্ট হচ্ছে তাই তো? আপনি বিশ্বাস করেন বা না করেন এটাই এখন বাস্তবতা এবং সবথেকে উদ্বেগের একটি বিষয়।
মেশিন লার্নিং ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে তৈরি করা ডিপফেক ভিডিও সেলিব্রিটি ও রাজনীতিবিদের জীবনে অভিশাপ হিসাবে আবির্ভুত হয়েছে ইতোমধ্যে। সাম্প্রতিক সময়ে কম বয়সী নারী যারা সোশ্যাল মিডিয়া ব্যবহার করেন বা অনলইন যে কোন মাধ্যমে বিচরণ করেন তাদের জন্য একটু বেশিই শঙ্কার বিষয় হয়ে দাড়াতে যাচ্ছে এই প্রযুক্তি।
ডিপফেক প্রযুক্তির অপব্যবহার

ধরুন কোন এক সকালে আপনার বন্ধুর পাঠানো লিংক ওপেন করে আপনি আকাশ থেকে পড়েলেন! কারন লিংকে আপনার বনধু যে ভিডিও ক্লিপসটি পাঠিয়েছে তা একটি পর্ণগ্রাফী এবং তাতে অন্তরঙ্গ মুহুর্তে যাকে দেখা যাচেছ তিনি অন্য কেউ নন, সয়ং আপনি। অথচ এখানে আপনার উপস্থিতির কোন প্রশ্নই আসেনা! এখন আপনি জানেন যে ওটা আপনি নন, কিন্তু বিষয় হলো যে, অন্যদের বোঝাবেন কিভাবে?
আবার ধরুন কারো উপরে প্রতিহিংসার বশবর্তী হয়ে এমন কোন সেনসেটিভ বক্তব্য তার চেহারার সাথে ভিডিওতে জুড়ে দিয়ে ভাইরাল করা হলো যার ফলে দেশের বা একটি এলাকর পরিস্থিতি উতপ্ত হওযার সাথে সাথে ঐ ব্যক্তির ক্যরিয়ারও শেষ।
আশ্চর্য হওয়ার কিছু নেই, মেশিন লার্নিং ও কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে এধরনের নকল বা ডিপফেক ভিডিও তৈরি করা এখন অসম্ভব কিছু না। প্রথম দিকে এই প্রযুক্তির মাধ্যমে সেলিব্রিটিদের মুখমন্ডল অশ্লীল ভিডিওর সাথে পরিবর্তন এবং রাজনীতিবিদদের মুখের কথা পরিবর্তনের মধ্যে সীমাবদ্ধ থাকলেও বর্তমানে এটার ব্যবহার আর এখানেই সীমাবদ্ধ নেই। বাস্তব চিত্রটি আরো খারাপের দিকে যাওয়ার ইঙ্গিত -ই দিচ্ছে ইন্টেলিজেন্স কোম্পানি সেনসিটির রিপোর্ট।

ইন্টেলিজেন্স কোম্পানি সেনসিটি জানাচ্ছে, অনলাইন থেকে অল্পবয়সী মেয়েদের ছবি কালেকশন করে বানানো হচ্ছে ডিপফেক পর্ণ ভিডিও এবং ছবি এবং ছেড়ে দেওয়া হচ্ছে টেলিগ্রাম সহ বিভিন্ন অনলাইন যোগাযোগ মাধ্যমে যার সংখ্যা এখন পর্যন্ত লক্ষাধিক। আর এ কাজে ব্যবহার করা হচ্ছে ‘ডিপফেক বট’ নামের একটি এপ্লিকেশন।
সেনসিটির প্রধান নির্বাহী জর্জিও পাত্রিনির মতে, সেলেব্রিটি এবং রাজনীতিবিদদের ছেড়ে এখন সাধারণ মানুষের ছবি ব্যবহার করে ডিপফেক ভিডিও কিংবা ছবি তৈরির প্রবণতা অনেক বাড়ছে। তিনি আরো যোগ করেন, “সামাজিক যোগাযোগ মাধ্যমের অ্যাকাউন্টে কারো একটি মাত্র ছবি থাকলেই তা দিয়ে এ ধরনের ছবি বা ভিডিও তৈরি করা সম্ভব”।
ডিপফেক ভিডিও প্রযুক্তি কি?
নকল আর আসলের পার্থক্য করাটা যে কতটা কঠিন তা ডিপফেক নামের স্বার্থকতাই বলে দেয়। ডিপফেক মুলত যা করে তা হলো ভিডিও এডিটিংয়ের মাধ্যমে চেহারাটাকে পরিবর্তন করে দেওয়া। আগে যেখানে ফটোশপ দিয়ে শুধু ইমেজ এডিট করে অন্য শরীরে চেহারা বসিয়ে দেওয়া যেত, এখন তা সম্ভব হচ্ছে ভিডিও কনটেন্টেও।

সব প্রযুক্তিরই ভালো এবং খারাপ ব্যবহার আছে, কিন্তু ডিপফেক প্রযুক্তির ক্ষেত্রে এখন পর্যন্ত যেই পরিমান অপব্যবহার হয়েছে তা আসলেই আশংকার বিষয়, আর এর মধ্যে প্রধান অপব্যবহর হচ্ছে ফেসসোয়াপিং এবং রিভেন্জ পর্নো নির্মাণে।
ডিপফেক ভিডিও প্রযুক্তি এডভান্স লেভেলের Artificial intelligence (AI) বা কৃত্রিম বুদ্ধিমত্তা সম্পন্ন একটি প্রযুক্তি যাতে ব্যবহার করা হয়েছে এডভান্স লেভেলের মেশিন লার্নিং অ্যালগরিদম একধিক স্তর। এই এডভান্স অ্যালগরিদম যে কোন সোর্স থেকে তথ্য সংগ্রহ করে ফিচার তৈরি করতে পারে যেমন, মানুষের মুখমন্ডল এবং শরীরের মুভমেন্ট।
ডিপফেক ভিডিওর জন্য আর একটি বিশেষ ধরনের মেশিন লার্নিং সিস্টেম প্রয়োজন হয় যা, ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’ (GAN) নামে পরিচিত। এই সিস্টেমের মাধ্যমে একজন ব্যক্তির মুখমন্ডলের বিভিন্ন এক্সপ্রেশনের আলাদা আলাদা অসংখ্য চিত্র সংগ্রহ করা হয়। এরপর মেশিন লার্নিংয়ের মাধ্যমে ছবিগুলো থেকে মুখের সব ধরনের এক্সপ্রেশনের একটি সিমুলেশন তৈরি করা করা হয়।
কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে গলার আওয়াজ নকল করা খুব একটি কঠিন কাজ নয় এখন। এর পরে বিভন্ন প্রক্রিয়ার মাধ্যমে কন্ঠস্বরের সাথে মুখের এক্সপ্রেশন সেট করে ভিডিও তৈরি করা হয় যা দেখে সহজেই বিশ্বাস করে বিভ্রান্ত হওয়াটাই স্বাভাবকি।
মানুষের দৃষ্টিসীমার পর্যায়কাল ০.১ সেকেন্ড। অর্থাৎ এই সময়ের চেযে কম স্থায়ী কোনো দৃশ্য চোখে বাঁধবে না এটাই স্বাভবিক। আর কৃত্রিম বুদ্ধিমত্তাসম্পন্ন প্রযুক্তি দিয়ে তৈরি করা ভিডিওগুলোতে বিভিন্ন ধরনের পরিবর্তন হয় এর থেকে কম সময়ের মধ্যে। আর এজন্যই খালি চোখে এই সমস্ত নকল ভিডিও বা অডিও আমাদের সাধারণের পক্ষে যাচাই করা সম্ভব নয়।
ডিপফেক প্রতিরোধে করনীয়
মানুষ যখন কথা বলে সে সময় মুখমন্ডলে রক্তপ্রবাহের পরিবর্তন ঘটে যা মেশিন লার্নিং শনাক্ত করতে পারে না। বর্তমানে এ বিষয়টি নিয়ে কাজ করছেন ইউনিভার্সিটি অফ ক্যালিফোর্নিয়ার কম্পিউটার বিজ্ঞান বিভাগের প্রফেসর হ্যানি ফরিদ। অনেকদুর এগিয়েছেন তিন তবে পুরোটা সফল হয়েছেন তা এখনই বলা সম্ভব নয়।
ডিপফেক মোকাবেলায় ফরেনসিক টেকনোলজি উদ্ভাবন করা অনেক সময়ের ব্যপার বিপরীতে ডিপফেক প্রযুক্তি নিয়মিতই আপডেট হচ্ছে। তবে ইতোমধ্যে ফেসবুক ডিপফেক শনাক্তকারী প্রযুক্তির মাধ্যমে তাদের প্লাটফরম থেকে ডিপফেক ভিডিও সরিয়ে নেওয়ার ঘোষনা দিয়েছে। মাইক্রোসফ্টও পিছিয়ে নেই এই পথে।
ফেসবুক তাদের কর্মীদের পাশাপাশি ফ্যাক্ট চেকাররের মাধ্যমে ভিডিও প্রকৃত কি না তা চিহ্নিত করছে। বিভিন্ন দেশ ডিপফেক প্রতিরোধ তাদের সাইবার সিকিউরিটি আইন পরিবর্তন করছে সাইবার সিকিউরিট এলগোরিদম আপডেট করছে প্রতিনিয়ত।
তবে ডিপফেক ভিডিওর বিরুদ্ধে প্রযুক্তিই একমাত্র সুরক্ষার উপায় নয়। ডিপফেক মোকাবেলায় আপনাকে ভালভাবে অনলাইন বেসিক সুরক্ষা পদ্ধতিগুলি জানতে হবে। পাশাপাশি আপনার পরিবারের সদস্য এবং কর্মক্ষেত্রে সকলকে ডিপফেক চিহ্নিতকরন এবং প্রতিরোধের উপায়গুলির বিষয়ে সচেতন করতে হবে।
ডিপফেক ভিডিও চিহ্নিত করার কিছু উপায়

সাধারনের কাছে ডিপফেক ভিডিও সহজে সনাক্ত কারার কোন উপায় থাকেনা তবে আপনি যদি সচেতন ভাবে আলাদা আলাদাভাবে ভিডিও প্রপাটিজগুলো লক্ষ করেন তাহলে কিছু বিষয় চিহ্নিত করতে পারবেন আশা করি। যেমনঃ
- মুখমন্ডল কিছুটা ব্লার থাকবে
- ভিডিওর মুভমেন্ট কিছুটা ঝাকুনি থাকবে
- এক ফ্রেম থেকে অন্য ফ্রেমের আলোতে পরিবর্তন থাকবে
- ত্বকের টোন পরিবর্তন হবে অস্বাভাবিক ভাবে
- অস্বাভাবিক উজ্জলতা থাকবে অথবা কোন উজ্জলতাই থাকবে না
- কথা বলার সাথে ঠোট দুর্বলভাবে মিলবে
- চিত্রে ডিজিটাল নিদর্শন থাকবে
ডিপফেক প্রযুক্তির ভবিষ্যত কী?
আজ থেকে দু-বছর আগে যখন ডিপফেক প্রযুক্তি উদ্বাবিত হয় তখন সেগুলোর গুনগত মান দেখে চিহ্নিত করাটা সহজে সম্ভব ছিলো। তবে বর্তমানে প্রযুক্তিটি প্রতিনিয়ত আপডেট হচ্ছে যার ফলে আসল নকলের পার্থক্য বোঝাটাও ক্রমেই কষ্টসাধ্য হয়ে উঠছে।
ইন্টেলিজেন্স কোম্পানি সেনসিটির সাম্প্রতিক একটি রিপোর্ট বলছে সারা বিশ্বে প্রায় এক লক্ষ নারীর ছবি সোশ্যাল মিডিয়া থেকে সংগ্রহ করে তা দিয়ে নগ্ন ছবি তৈরি করা হচ্ছে যা খুবই আশকাজনক।
এখন পর্যন্ত অনলাইনে পনেরো হাজারের উপরে ডিপফেক ভিডিও আছে অনুমান করা হয়। যা কেবল শুধুমাত্র বিনোদনের জন্য করা হয়েছে বলা হয়ে থাকে। তবে এখন নতুন ডিপফেক তৈরি করতে সময় লাগে মাত্র এক বা দু’দিন, তাই এই সংখ্যাটি খুব দ্রুত বাড়বে এ বিষয়ে সন্দেহ হবার কোন অবকাশ নেই।