ছবির উৎস, Getty Images
ছবির ক্যাপশান,
অভিনেত্রী-মডেল রাশ্মিকা মানদানা
৫৫ মিনিট আগে
সফল ভারতীয় ছবি 'পুষ্পা'-র নায়িকা রাশ্মিকা মানদানার একটি ভুয়ো ভিডিও এখন ভাইরাল হয়ে গেছে। ডিপফেক প্রযুক্তি দিয়ে বানানো ওই অশ্লীল ভিডিওতে মিজ মানদানার মতো দেখতে এক নারীকে দেখা গেছে।
মিজ মানদানা এই বিষয়ে 'হতাশা' প্রকাশ করেছেন এবং যত তাড়াতাড়ি সম্ভব এর সমাধান খুঁজে বের করার আবেদনও করেছেন যাতে তাঁর মতো আর কাউকে এই ‘সমস্যার সম্মুখীন না হতে হয়’।
সামাজিক যোগাযোগ মাধ্যম ‘এক্স’-এ (সাবেক টুইটার) মিজ মানদানা লিখেছেন, “সত্যি কথা বলতে, এ ধরনের ঘটনা শুধুমাত্র আমার জন্য নয় সবার জন্যই খুব আশঙ্কাজনক।”
অভিনেত্রী আরও লিখেছেন, আজকাল যেভাবে প্রযুক্তির অপব্যবহার হচ্ছে, তাতে শুধু তিনিই নন, আরও অনেকেই বড় ধরনের ক্ষতির সম্মুখীন হতে পারেন।
"আজ, একজন নারী এবং অভিনেতা হিসাবে, আমি পরিবার, বন্ধু-বান্ধব এবং শুভাকাঙ্ক্ষীদের কাছে কৃতজ্ঞ যাঁরা আমার পাশে দাঁড়িয়ে আমাকে সুরক্ষিত রেখেছেন। আমি সত্যিই ভাবতে পারছি না স্কুলে বা কলেজে পড়াকালীন এমন কিছু ঘটলে আমি কীভাবে এই পরিস্থিতির মোকাবিলা করতাম,” তিনি ঐ পোস্টে লেখেন।
ছবির উৎস, Getty Images
ছবির ক্যাপশান,
ডিপফেক প্রযুক্তির মাধ্যমে কীভাবে প্রাক্তন মার্কিন প্রেসিডেন্ট ডোনাল্ড ট্রাম্প ও বারাক ওবামার বক্তব্য বদলে ফেলা যেতে পারে সে সংক্রান্ত একটি ভিডিও দেখছেন এক মহিলা
ডিপফেক এমন একটি প্রযুক্তি যাতে আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) ব্যবহার করে অডিও বা ভিডিওতে কারচুপি করা সম্ভব। সহজ ভাষায়, এআই ব্যবহার করে এই কৌশলের সাহায্যে ভুয়ো ভিডিও তৈরি করা যায়, যা দেখতে আসলের মতো । এই কারণে এর নামকরণ করা হয় ডিপফেক।
বিবিসির এক প্রতিবেদন অনুযায়ী, ২০১৭ সালে একজন রেডিট ব্যবহারকারী অশ্লীল ভিডিওতে একজনের চেহারা পরিবর্তনের জন্য এই কৌশলটি ব্যবহার করেন। পরে রেডিট 'ডিপফেক পর্ণ' নিষিদ্ধ করে দেয়।
ছবির উৎস, Other
ছবির ক্যাপশান,
ডিপফেক কনটেন্ট যা ইউক্রেনিয়ান টিভি নেটওয়ার্ক ইউক্রেনিয়া ২৪-এর হ্যাক করা ওয়েবসাইটে দেখা গিয়েছিল
ডিপফেক বিষয়টি বেশ জটিল। এর জন্য মেশিন লার্নিং-এর বিষয়ে দক্ষতা থাকা প্রয়োজন।
ডিপফেক সামগ্রী দুটি অ্যালগরিদম ব্যবহার করে তৈরি করা হয়, যার একটিকে বলা হয় ডিকোডার এবং অন্যটিকে বলে এনকোডার। এটি ভুয়ো ডিজিটাল কনটেন্ট তৈরি করে ডিকোডারকে পাঠিয়ে যাচাই করতে বলে কনটেন্টটি আসল নাকি নকল।
প্রতিবার ডিকোডার যাচাই করে সেই তথ্য এনকোডারে পাঠায় যাতে পরবর্তী ডিপফেকটি সংশোধন করে আসলের আরও কাছাকাছি তৈরি করা যায়।
দুটি প্রক্রিয়া একত্রিত হয়ে তৈরি হয় ‘জেনারেটিভ অ্যাডভার্সেরিয়াল নেটওয়ার্ক’ বা জিএএন।
ছবির উৎস, MYHERITAGE
ছবির ক্যাপশান,
মাইহেরিটেজ নামক একটি টুল যা মৃত আত্মীয়দের ছবি রি - অ্যানিমেট করতে পারে এবং ডিপফেক-কে কথাও বলাতে পারে
বিবিসির ওই রিপোর্ট বলছে, ডিপফেক প্রযুক্তির ব্যবহার শুরু পর্নোগ্রাফিক কনটেন্ট তৈরি করতে গিয়েই। পর্নোগ্রাফিতে এই কৌশলটি ব্যাপকভাবে ব্যবহৃত হয়। অভিনেতা-অভিনেত্রীদের চেহারা পাল্টে দিয়ে সাইটে অশ্লীল কনটেন্ট পোস্ট করা হয়।
ডিপট্রেসের এক প্রতিবেদনে বলা হয়েছে, ২০১৯ সালে অনলাইনে পাওয়া ডিপফেক ভিডিওর ৯৬ শতাংশই অশ্লীল ভিডিও।
এ ছাড়া বিনোদনের জন্যও এই কৌশল ব্যবহার করা হয়। এই ডিপফেক ভিডিওগুলির উদ্দেশ্য দর্শকদের চোখের সামনে সেটা তুলে ধরা, যা বাস্তবে ঘটেইনি।
অনেক ইউটিউব চ্যানেলে নানান চলচ্চিত্রের বিভিন্ন দৃশ্যের ডিপফেক ভিডিও পোস্ট করা হয়।
উদাহরণস্বরূপ, ‘সিটিআরএল শিফট ফেস’ ইউটিউব চ্যানেলে 'দ্য শাইনিং' চলচ্চিত্রের একটি বিখ্যাত দৃশ্যের ডিপফেক ভিডিও রয়েছে।
গত কয়েক বছর ধরে নস্টালজিয়া় জিইয়ে রাখতে এই কৌশল ব্যবহার করা হচ্ছে। মৃত আত্মীয়-স্বজনদের ছবিতে এই পদ্ধতি ব্যবহার করে অ্যানিমেট করা হয়।
বিভিন্ন সময়ে প্রযুক্তির সাহায্যে পূর্বপুরুষদের থেকে শুরু করে বিখ্যাত মানুষদের জীবন্ত করে তোলা হয়েছে।
ডিপফেক এখন রাজনীতিতেও ব্যবহৃত হচ্ছে।
নির্বাচনে, রাজনৈতিক দলগুলি একে অপরকে আক্রমণ করার জন্য ডিপফেক কৌশলের ব্যবহার করে। ইউক্রেন-রাশিয়া যুদ্ধের সময়ও ডিপফেক ভিডিও প্রকাশিত হয়েছে।
ছবির উৎস, Getty Images
ছবির ক্যাপশান,
ডিপফেক প্রযুক্তির সাহায্যে তৈরি একটি ভিডিও
কোনও কনটেন্ট ‘ডিপফেক’ কি না বুঝতে নির্দিষ্ট কিছু বিষয়ে লক্ষ্য করা খুবই প্রয়োজন।
এর মধ্যে প্রথমটি হল মুখের অবস্থান।
প্রায়শই ডিপফেক প্রযুক্তি মুখ এবং চোখের অবস্থানকে পুঙ্খানুপুঙ্খ ভাবে নকল করে উঠতে পারে না। এর মধ্যে চোখের পাতা পড়ার বিষয়টিও রয়েছে।
যদি লক্ষ্য করেন চোখ-নাকের অবস্থানে সামঞ্জস্য নেই বা অনেকক্ষণ হয়ে যাওয়া সত্ত্বেও চোখের পলক পড়ছে না, তাহলে বুঝতে হবে, কন্টেন্টটি ডিপফেক।
ডিপফেক কনটেন্টের ‘কালারিং’-এর বিষয়টি মনোযোগ দিয়ে দেখলেও বোঝা যেতে পারে ছবি বা ভিডিওর সঙ্গে কারচুপি করা হয়েছে।