<p>সকালে ঘুম ঘুম চোখেই ফেসবুকে ঢুঁ দিচ্ছেন। বিদ্যুৎবেগে শোয়া থেকে ওঠে বসলেন। নভেম্বরের শেষ। অথচ আপনার কপাল বেয়ে ঘাম ঝরছে তরতর করে। এ কীভাবে সম্ভব? আপনি ভালো করেই জানেন ভিডিওর ব্যক্তিটি আপনি নন। আপনি কখনো এমন মন্তব্য করেননি। জায়গাটিও অচেনা। অথচ ভিডিওতে স্পষ্ট আপনার মুখবয়ব রয়েছে। কণ্ঠটিও আপনারই। আপনার ঘৃণ্য মন্তব্য রাতে সারা বিশ্বে ছড়িয়ে গিয়েছে। ফোন, টেক্সট ভরে যাচ্ছে শত শত গালিতে। আপনার পরিচিত বন্ধু-বান্ধবও তিরস্কার জানিয়ে সমানে পোস্ট করে যাচ্ছেন। শেয়ার করছেন সেই ভিডিও। অনেকেই গ্রেফতার করার জন্য প্রতিবাদ জানাচ্ছেন। কেউ আবার এক ধাপ এগিয়ে আপনার মুণ্ডুটাও শেয়ারবাজারের মতো দাম নির্ধারণ করে দিয়েছেন।</p> <p><a href="https://www.kalerkantho.com/online/science/2023/11/24/1339252"><span style="color:#2980b9;">আরও পড়ুন: এরিয়া ফিফটি ওয়ান নিয়ে এত রহস্য কেন?</span></a></p> <p>এতক্ষণ নিজেকে যেভাবে কল্পনা করেছেন, সেখানে আপনিই ঠিক ছিলেন। ভিডিওতে থাকা মুখটি আপনার হলেও প্রকৃত আপনি নন। প্রযুক্তির কল্যাণে (না কি অপকল্যাণে?) কেউ বা কারা হুবহু আপনার মুখ-সহ শরীরের অবয়ব গড়েছেন। সাথে নিখুঁত কণ্ঠও রয়েছে। এই অপপ্রযুক্তির নাম ‘ডিপ-ফেক’।</p> <p> </p> <p><strong>ডিপফেক কী?</strong><br /> শব্দটি ইংরেজি deepfake থেকে এসেছে। বাংলাতেও ডিপ-ফেক বলা হয়। বাংলা অর্থটি এমন হতে পারে— ‘গভীর-নকল’ বা নিখুত-জাল, নিগূঢ়-কপটতা ইত্যাদি। ডিপ-ফেক শব্দটি ভেঙে গড়লে দুটো আলাদা শব্দ পাওয়া যায়। ডিপ আর ফেক। প্রথম শব্দটি ডিপ-লার্নিং বা গভীর-জ্ঞান—সম্পূর্ণ প্রযুক্তিনির্ভর। পুরো বিষয়টি মেশিন লার্নিং-এর ওপর দাঁড়িয়ে। সহজে বললে, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির গভীর জ্ঞান-কৌশল কাজে লাগানো। এই প্রযুক্তি বেশ জটিল ও কঠিন। একাধিক স্তরে বিন্যস্ত উচ্চস্তরের প্রযুক্তির জ্ঞান অর্জনেও কঠোর শ্রম দিতে হয়। দ্বিতীয় শব্দ ‘ফেক’ অর্থ নকল, জাল। সত্য নয় এমন সবকিছুই ফেক শব্দটি দিয়ে সংজ্ঞায়িত করা যায়। প্রযুক্তির ভাষায় ডিপফেক হলো কৃত্রিম বুদ্ধিমত্তার সাহায্যে সমন্বয়কৃত নকল বিষয়বস্তু। সেটা হতে পারে ভিডিও, ছবি, অ্যানিমেশন, অডিও প্রভৃতি।</p> <p><a href="https://www.kalerkantho.com/online/science/2023/11/23/1338903"><span style="color:#2980b9;">আরও পড়ুন: চাঁদ অভিযান কি মিথ্যা? ছবিতে তারা নেই কেন?</span></a></p> <p>সাধারণ ভাষায় পুরো কথাটি এভাবে বলতে পারি— সত্য নয় এমন কোনো কথা, কাজ উচ্চতর কৃত্রিম প্রযুক্তির জ্ঞানের মাধ্যমে ছড়িয়ে দেওয়াই ডিপফেক।<br /> ডিপফেকের আরেক সহোদর ভাই রয়েছে। তার নাম শ্যালোফেক (shallow-fakes)। ডিপ-ফেকের তুলনায় এটি বানানো সহজ। এই প্রযুক্তিতে মূলত ভিডিও স্পিড ইফেক্ট ব্যবহার হয়। অস্বাভাবিক গতি ব্যক্তির অভিব্যক্তি পরিবর্তন করে দেয়। ভিডিও-স্পিড কমালে মনে হয় মাতাল নয়তো প্রতিবন্ধী। গতি বাড়ালে ব্যক্তিকে আক্রমণাত্মক দেখাবে। একে ডাম্ব-ফেকও ডাকা হয়।</p> <p> </p> <p><strong>কীভাবে গড়ে ওঠে ডিপফেক কনটেন্ট?</strong><br /> প্রযুক্তিনির্ভর এই বিষয়টি মেশিন লার্নিং ব্যবস্থায় গড়ে ওঠে। যেখানে দুটো ভিন্ন ধরনের অ্যালগরিদম ব্যবহার করা হয়। প্রথম অ্যালগরিদমটি ‘জেনারেট’ করার কাজটি করে। ব্যবহারকারী যেমন চায় সে প্রেক্ষিতে নকল চিত্র বা ভিডিওর সর্বোচ্চ সম্ভাব্য প্রতিরূপ প্রদান করে। অন্য অ্যালগরিদমটি সেই প্রতিরূপের দোষ-ত্রুটি খোঁজার কাজ শুরু করে দেয়। ডিসক্রিমিনেট বা ব্যবধান নির্ণয় করে সে তথ্য জানিয়ে দেয়। মুখের কোন ভাঁজটা আরেকটু গভীর হবে, কোথায় আরেকটু উন্নতি করা যায়, সে কৌশলও দেয় বলে। যতক্ষণ না নকলটি পুরোপুরি আসলের মতো হচ্ছে ডিসক্রিমিনেটর ততবার সাজেশন দিয়ে যাবে।</p> <p><a href="https://www.kalerkantho.com/online/science/2023/11/21/1338280"><span style="color:#2980b9;">আরও পড়ুন: আবদুস সালাম নোবেলজয়ী বিজ্ঞানী, অথচ কলেজ ও দেশ থেকে বিতাড়িত হয়েছিলেন—কেন?</span></a></p> <p>কণ্ঠের বিষয়টি একটু ভিন্ন। নকল ভিডিও বা অডিওতে থাকা কণ্ঠ হুবহু আসল ব্যক্তির মতো হতে হবে। সেজন্য আসল ব্যক্তির আসল কণ্ঠের আসল একটি অডিও নমুনা নকল করার উদ্দেশ্যে তৈরি এআই নমুনায় ইনপুট করা হয়। এরপর প্রথম অ্যালগরিদম সেই কণ্ঠটি নিয়ে তোতাপাখির মতো হরেক কণ্ঠের মিমিক্রি করা শুরু করে। প্রকৃত কণ্ঠের কাছাকাছি বা সমান হলে সেটি ডিসক্রিমিনেটরের ছাড়পত্র পায়।</p> <p> </p> <p><strong>শুরুটা যেভাবে</strong><br /> মাত্র ছয় বছর আগে মানুষ প্রথম ‘ডিপফেক’ শব্দটির সাথে পরিচিত হয়। শব্দটি প্রথম ব্যবহার হয়েছিল অ্যামেরিকান সামাজিক মাধ্যম ‘রেডিট’-এ। এই সামাজিক মাধ্যমটি গল্প, ছবি, ভিডিও ইত্যাদির রেটিং, আলোচনা-সমালোচনায় মুখর থাকে। এখানে কয়েকটি পোস্টকে একত্রে থ্রেট বলা হয়। ২০১৭ সালে ‘ডিপফেক’ নামক অ্যাকাউন্ট থেকে হঠাৎ থ্রেটে অদ্ভুত দাবি করা হয়। অ্যাকাউন্ট ব্যবহারকারী বলেন, তিনি এমন একটি মেশিন লার্নিং অ্যালগরিদম বানিয়েছেন যা বিখ্যাত কোনও ব্যক্তির মুখ একপলকে অশ্লীল (পর্ন) কনটেন্টে রূপ দিতে পারবে। দ্রুত ছড়িয়ে পড়ে বিষয়টি। সমালোচনার চাপে পোস্টগুলো বন্ধ করে দেওয়া হয়। কিন্তু যা হবার তা হয়ে গিয়েছে। মানুষ জেনেছেন। আর এখন দুদিন পরপর সে প্রযুক্তির হাল ভাইরাল কনটেন্ট হিসেবে দেখছেনও।</p> <p><a href="https://www.kalerkantho.com/online/science/2023/11/15/1336493"><span style="color:#2980b9;">আরও পড়ুন: স্পেসটাইমকে দুমড়েমুচড়ে ফেলছে দানবীয় ব্ল্যাকহোল</span></a></p> <p>শব্দটি নতুন হলেও প্রযুক্তিটির ইতিহাস এতটাও নতুন নয়। আবার বেশি পুরাতনও বলা যাবে না। শুরুটা হয় ১৯৯৭ সালে। যদিও তখন একে কোনও নামে ডাকা হয়নি। ভিত্তি ছিল একটি গবেষণাপত্র। ব্রেগলার, কোভেল এবং স্লানি এই তিনজনের বিষয় ছিল ‘ভিডিও রিরাইট: ড্রাইভিং ভিজ্যুয়াল স্পিচ উইথ অডিও’। অর্থাৎ অডিও সংশোধন। বিদ্যমান ভিডিও ফুটেজ ঠিক রেখে স্বয়ংক্রিয়ভাবে একজন ব্যক্তির নকল কণ্ঠস্বর আরোপ। দেখে মনেই হবে না যে ব্যক্তিটির কণ্ঠ নকল। অথচ ভিডিওতে তা বলেননি। নকল ভয়েসের সাথে তাল রেখে কেবল ঠোঁট নাড়ানোর মাধ্যমেই কাজটি করা হয়েছিল। ‘লিপসিঙ্ক’ শব্দটি এখানে সার্থক। যদিও ব্রেগলারদের এই প্রকল্পের মূল প্রস্তাবনা ছিল চলচ্চিত্রে কণ্ঠারোপ সহজ করা।</p> <p>ডিপফেক প্রযুক্তির একক কোনও উদ্ভাবক নেই। ধারণাটি বছর পঁচিশ আগে এলেও খুঁটিনাটি বিষয়গুলো ধীরে ধীরে গড়ে ওঠে অনেকের হাত ধরে। তাঁদের একজন ইয়ন গুডফেলো। ২০১৪ সালে তিনি জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা GAN গড়ে তোলেন।</p> <p><a href="https://www.kalerkantho.com/online/science/2023/11/14/1336132"><span style="color:#2980b9;">আরও পড়ুন: আমরা কিভাবে সময় অনুভব করি?</span></a></p> <p>সেই প্রযুক্তি একবিংশ শতাব্দির দুই দশক পেরোতে না পেরোতে ‘মজার’ বিষয়ে পরিণত হয়ে গেল। বন্ধুদের সাথে মজা বা খেয়াল খুশি মতো বিখ্যাতদের মুখ ডিপফেকে তৈরি করছেন কেউ কেউ। তৈরি হচ্ছে ভয়াবহ অনিশ্চয়তা। কোথায় গিয়ে থামবে খামখেয়ালি। পরিণতি কী হবে?</p> <p> </p> <p><strong>ডিপফেক যেভাবে এগিয়ে যাচ্ছে</strong><br /> বিষয়টি মোটেও মজার রইল না। সম্ভবত এআই-এর উদ্ভাবিত সবচেয়ে ভয়ানক প্রযুক্তি এটি। অশ্লীলতায় পূর্ণ সব কনটেন্ট ভাইরাসের মতো দ্রুত ছড়িয়ে যাচ্ছে প্রতিদিন। বিশ্বখ্যাত গণমাধ্যম গার্ডিয়ান বলছে, ২০১৯ সালের সেপ্টেম্বরেই পনের হাজারের মতো ডিপ-ফেক ভিডিও অনুসন্ধান করে পেয়েছে ডিপট্রেস নামক এআই ফার্ম। এগুলোর ৯৬ শতাংশই পর্নো ভিডিও। আবার ৯৯ শতাংশ ভিডিওর লক্ষ ছিলেন নারী তারকা। বিখ্যাতদের মুখবয়ব পর্নস্টারের মুখ দ্বারা পরিবর্তন করে ভিডিওগুলো সাজানো হয়েছিল। </p> <p>ডিপ-ফেকের প্রথম দিকের একটি ঘটনা যুক্তরাজ্যে ঘটেছিল। জালিয়াতকারীরা সেদেশের একটি এনার্জি কোম্পানির প্রধান নির্বাহী কর্মকর্তাকে তাঁর জার্মান বসের কণ্ঠ নকল করে তৃতীয় পক্ষের ব্যাংক অ্যাকাউন্টে দুই লাখ বিশ হাজার ইউরো পাঠাতে বলে। </p> <p>২০১৮ সালে ভারতেও একটি ঘটনা ঘটে। হোয়াটসঅ্যাপে ছড়িয়ে পড়া ভিডিওতে একটি মোটরসাইকেলে দুই ব্যক্তিকে একটি শিশুকে অপহরণ করতে দেখা যায়। এই ভুয়া ভিডিওকে কেন্দ্র করে আতঙ্ক ছড়িয়ে পড়ে। এমনকি হতাহতের ঘটনাও ঘটে।</p> <p>বেহাতে পড়ে প্রযুক্তিটির সর্বোচ্চ নেতিবাচক বিশ্ব দেখা শুরু করে দিয়েছে। সাধারণ মানুষ থেকে অ্যামেরিকার প্রেসিডেন্ট। অ্যামেরিকার ৪৫তম প্রেসিডেন্ট ট্রাম্প ক্ষমতা থাকা অবস্থাতেই তার ডিপফেক ভিডিও ছড়িয়ে পড়ে। সে নকল ভিডিওতে প্রেসিডেন্ট ট্রাম্প প্যারিস জলবায়ু চুক্তি সম্পর্কিত সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করেন।</p> <p>ফেসবুক প্রতিষ্ঠাতা মার্ক জাকার্বার্গ, জনপ্রিয় কমেডিয়ান মিস্টার বিন বাদ যাচ্ছেন না কেউ। উদাহরণ দিয়ে শেষ করা যাবে না। ধীরে ধীরে এই প্রযুক্তি হুমকি, ভয়-ভীতি, অর্থ আদায়-সহ সকল অপকর্ম সফলে সফল হচ্ছে। গুজবে ছড়াতে পারে জাতিগত বিদ্বেষ। ফলে আমাদের সতর্ক অবস্থানে থেকে ব্যবস্থার আয়োজন করতে হবে। তার জন্য শুরুতে প্রয়োজন ডিপ-ফেক শনাক্ত করার দক্ষতা অর্জন। এবং জড়িতদের আইনের আওতায় আনা।</p> <p> </p> <p><strong>কীভাবে শনাক্ত করা যায় ডিপফেক?</strong><br /> প্রতিটি রোগ আবিষ্কারের পর একসময় তার প্রতিরোধ, প্রতিকারের উপায় পাওয়া যায়। ডিপ-ফেকের জন্যও সে কথাটি প্রযোজ্য। যতই নিখুঁত হোক। শতভাগ নিখুঁত তো মানুষও নয়। ডিপ-ফেক কনটেন্টের অধিকাংশ হয় ভিডিও। খালি চোখে ডিপ-ফেক কি না তা শনাক্ত একপলকে সম্ভব না-হলেও গভীর নজরে তা ধরা পরে। এখন পর্যন্ত ধরা যায়। চোখের পাতা ওঠা-নামার সময়ের পার্থক্য, মুখভঙ্গির ভিন্নতা, শারীরিক অঙ্গভঙ্গি, কথার গতি, কণ্ঠের নমনীয়তা-কঠোরতা, ঠোঁটের নড়ন তুলনামূলক কম-বেশি, চুলের রং ইত্যাদি মৌলিক কিছু বিষয় নজরে রেখে সহজেই আসল-নকল পার্থক্য করা যেতে পারে। এগুলোতেও ধরা না গেলে একটু গভীরে ভাবতে হবে কনটেন্টের আলো-ছায়ার খেলা নিয়ে। পটভূমিতে থাকা সাবজেক্টের চেয়ে ব্যক্তি সাবজেক্ট ঝাপসা না স্পষ্ট। </p> <p>এখনও ডিপ-ফেক শনাক্তের সুনির্ধারিত কোনো মাধ্যম বা অস্ত্র আমরা পাইনি। তবে কিছু প্রতিষ্ঠান নিজস্ব অ্যালগরিদম বা পদ্ধতি অবলম্বন করে সেগুলো শনাক্ত করে। ডিপট্রেস সেভাবেই কাজ করে। সাধারণ ভিডিও ইনভিড সফটওয়ারের সাহায্য নিয়েই করা যাবে। আপনি চাইলে ভিডিও থেকে স্ক্রিনশট বা একটি অংশ নিয়ে রিভার্স ইমেজ সার্চ পদ্ধতিটি ব্যবহার করে প্রাথমিক যাচাই করতে পারেন। এছাড়াও ডিপ-ফেক ভিডিও, ছবি শনাক্তের জন্য যথাক্রমে ভিডিও-মেটাডেটা, ফটো-মেটাডেটা ব্যবহার জনপ্রিয় হচ্ছে। ইউটিউব ভিডিও যাচাইয়ে রয়েছে অ্যামনেস্টি ইন্টারন্যাশনালের ‘ইউটিউব ডেটা ভিউয়ার’। জার্মানির মিউনিখের ভিজুয়াল কম্পিউটিং ল্যাবের একটি গবেষণাকারী দল ফেস-ফরেনসিক নামে একটি সফটওয়ার তৈরি করেছে। এর মাধ্যমে সফটওয়ারটি নিজস্ব ফরমেটের ভিডিও শনাক্ত করতে পারে। তবে এর বাইরের অন্য কোনও ফরমেটের ভিডিও শনাক্ত করতে পারে না।</p> <p> </p> <p><strong>আইন কী বলে?</strong><br /> যেমন বলছিলাম, প্রযুক্তিটি নেহায়েত নতুন। তাই আইনও গড়ে ওঠেনি সব দেশে। কিছু দেশ প্রস্তাব এনেছে। কিছু দেশ আইন প্রণয়নের কথা ভাবছে। হাতেগোনা কয়েকটি দেশে আইন রয়েছে। রয়েছে শাস্তির বিধান। অ্যামেরিকা, চীন তাদের অন্যতম। সেখানে ডিপ-ফেক কনটেন্ট অবৈধ। যুক্তরাষ্ট্রে ডিপ-ফেক পর্ন বিষয়ক আইন রয়েছে। আরেকটি ধারায় ডিপফেক বিষয়বস্তু নিষিদ্ধের কথাও রয়েছে। ক্যালিফোর্নিয়ায় ডিপফেক বিতরণ অবৈধ করে এবি-৭৩০ আইন করা হয় ২০১৮-তে। কিছু সেটি মোটেও সহজ আইন নয়। আইনে বলা আছে— নির্বাচনের ৬০ দিনের মধ্যে রাজনীতিবিদদের সমন্বিত নকল ফিল্ম, ছবি বা অডিও ফাইলের প্রচার নিষিদ্ধ।</p> <p>তাই বলে কি কোনো ইতিবাচক দিক নেই?</p> <p>ডিপ-ফেকের সমস্তই খারাপ— আমাদের আলোচনায় এই বিষয়টিই মোটাদাগে ওঠে এসেছে। তবে সব ভালোর সাথে যেমন খারাপ দিক থাকে, তেমনি সব খারাপের সাথেও ভালো কিছু দিক থাকতে পারে। ডিপ-ফেকের জন্যও কথাটি সত্য। ফুটবল খেলোয়ার ডেভিড বেকহ্যাম ম্যালেরিয়া-বিষয়ক সচেতনমূলক একটি প্রচারণা চালিয়েছিলেন। তাঁর সেই ভিডিওর বক্তব্য ডিপ-ফেকের সহায়তায় নয়টি ভাষায় বলানো হয়। যা একাধিক ভাষায় পুরো বিশ্বময় ছড়িয়ে দিতে সহায়তা করে। </p> <p>এছাড়াও শিক্ষা ও চিকিৎসা ক্ষেত্রও ডিপ-ফেকের ইতিবাচক ব্যবহারে উপকৃত হতে পারে। শ্রেণিপাঠে শিক্ষার্থীদের আকর্ষিত করতে একঘেয়ে ইতিহাসের ঐতিহাসিক ঘটনা, বক্তব্য ডিপ-ফেকে জীবন্ত করে তোলতে পারেন সহজেই। স্বাস্থ্যসেবায় ম্যাগনেটিক রেজোন্যান্স ইমেজিং বা এমআরআই স্ক্যানে টিউমার, ক্যানসার কোষ নির্ভুল সনাক্তে ডিপ-ফেক কাজে লাগানো যায়। টিউমার কোষ অস্বাভাবিক আকারে দেহে বেড়ে ওঠে। প্রাথমিক ধাপে সাধারণ চোখে নজরে না পড়লেও ডিপ-ফেক জেনারেটরে ফেলে যাচাই করলে দেহের অস্বাভাবিকতা ধরা পড়তে পারে। </p> <p>অনান্য প্রযুক্তির সাথে ডিপ-ফেকের পার্থক্য এই, সেগুলোর ভালো দিকটা আগে, খারাপ দিকটা পরে ধরা পড়ে। ডিপ-ফেকের জন্য বিষয়টি সম্পূর্ণ বিপরীত। আমরা এর নেতিবাচক দিকটির সাথেই অভ্যস্ত। ক্ষতিক্ষারক নকল শনাক্তে যেমন অস্ত্র প্রয়োজন তেমনি ইতিবাচক ব্যবহারের ক্ষেত্র নিয়েও আলোচনার সুযোগ রয়েছে। ভালো দিকটির কথা অগ্রাহ্য করে কেবল নেতিবাচক গ্রহণের ধারা চলতে থাকলে খুব দ্রুত বিপর্যয় নেমে আসবে চারদিকে। সে বিপর্যয়ে ডিপ-ফেক প্রযুক্তি একক নায়ক হওয়ার জন্য যথেষ্ট।</p> <p>প্রযুক্তি স্থির নেই। বিজ্ঞান বসে নেই। প্রযুক্তিও সমানতালে বিজ্ঞানকে অবলম্বন করে এগিয়ে চলছে। সমাধান আসবেই। এখনও গবেষণা চলছে এর থেকে মুক্তি পাওয়ার পথ বের করার। এক সময় নাম ছিল পরিচয়। এরপর তা বাতিল হয়ে বায়োমেট্রিক এলো। তা-ও প্রকৃত অনন্য নয়। এরপর ডিএনএ এসে দেখিয়ে দিল মানুষের অনন্যতা আসলে কোথায়। ডিপ-ফেকের ক্ষেত্রেও তেমন একটি সমাধান কাম্য। নতুবা এই প্রযুক্তির অগ্রযাত্রা চলতে থাকলে একসময় আসল-নকল পার্থক্যই করা যাবে না।</p> <p> </p> <p>লেখক: শিক্ষার্থী, রসায়ন বিভাগ, ঢাকা কলেজ।</p> <p>সূত্র:<br /> ১। https://www.britannica.com/technology/deepfake <br /> ২। https://bonhamandbrook.co.uk/2022/11/17/deepfake-era-a-brief-history/ <br /> ৩। https://www.historyofinformation.com/detail.php?id=4792 <br /> ৪। https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them <br /> ৫। https://www.foxnews.com/tech/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-the-rise<br /> ৬। https://recfaces.com/articles/what-is-deepfake<br /> ৭। https://www.unr.edu/nevada-today/news/2023/atp-deepfakes<br /> ৮। https://www.politico.eu/article/spa-donald-trump-belgium-paris-climate-agreement-belgian-socialist-party-circulates-deep-fake-trump-video/<br /> ৯। http://niessnerlab.org/projects/roessler2018faceforensics.html <br /> ১০। https://www.techslang.com/what-is-deepfake-technology/</p> <p> </p>