বাড়ি ব্যবসায় আইআই এবং মেশিন লার্নিং শোষন করে, ডিপফেকস, এখন সনাক্ত করা আরও শক্ত

আইআই এবং মেশিন লার্নিং শোষন করে, ডিপফেকস, এখন সনাক্ত করা আরও শক্ত

সুচিপত্র:

ভিডিও: पहली बार में कुछ नहीं होता | Sonu Sharma | Best Motivational Video | For association : 7678481813 (সেপ্টেম্বর 2024)

ভিডিও: पहली बार में कुछ नहीं होता | Sonu Sharma | Best Motivational Video | For association : 7678481813 (সেপ্টেম্বর 2024)
Anonim

পরবর্তী রাষ্ট্রপতি নির্বাচনী প্রচারের মরসুমে আমরা যখন যাচ্ছি, আপনি জাল অনলাইন ভিডিওগুলি কৃত্রিম বুদ্ধিমত্তা (এআই) এবং মেশিন লার্নিং (এমএল) ব্যবহারের মাধ্যমে যে সম্ভাব্য বিপদগুলি থেকে সাবধান থাকতে চান। এআই সফ্টওয়্যার ব্যবহার করে লোকেরা ডিপফেক ("গভীর শেখার এবং নকল" এর জন্য সংক্ষিপ্ত) ভিডিও তৈরি করতে পারে যার মধ্যে এমএল অ্যালগরিদমগুলি এমন ধারণা তৈরি করতে মুখের অদলবদল করতে ব্যবহৃত হয় যে কেউ কেউ এমন কিছু বলেছিল যা তারা বলেনি বা তারা কেউ ' না পুনরায়. ডিপফেক ভিডিওগুলি কর্পোরেট থেকে শুরু করে বিনোদন জগতের রাজনীতি পর্যন্ত বিভিন্ন অঙ্গনে প্রদর্শিত হচ্ছে। ভিডিওগুলি কেবল ভ্রান্ত বার্তাগুলির সাথে নির্বাচনকে অন্যায়ভাবে প্রভাবিত করতে পারে তা নয়, তবে তারা ব্যক্তিগত বিব্রতবোধ আনতে পারে বা বিভ্রান্তিমূলক ব্র্যান্ড বার্তাগুলির কারণ হতে পারে, যদি বলা হয় যে তারা কোনও সিইওকে পণ্য প্রবর্তন বা এমন একটি অধিগ্রহণের ঘোষণা দিচ্ছে যা বাস্তবে ঘটেছিল না।

ডিপফেকস এআই এর একটি শ্রেণীর অংশ যা "জেনারেটাল অ্যাডভারসিয়াল নেটওয়ার্কস" বা জিএএনএস নামে পরিচিত, যেখানে দুটি নিউরাল নেটওয়ার্ক বাস্তব হিসাবে উপস্থিত ফটোগ্রাফ বা ভিডিও তৈরি করতে প্রতিযোগিতা করে। জ্যান্সগুলিতে একটি জেনারেটর থাকে, যা একটি জাল ভিডিওর মতো একটি নতুন সেট এবং একটি বৈষম্যবিদ তৈরি করে, যা বাস্তব ভিডিও থেকে ডেটা সংশ্লেষিত করতে এবং তুলনা করতে একটি এমএল অ্যালগরিদম ব্যবহার করে। জেনারেটর পুরানো একটির সাথে জাল ভিডিও সংশ্লেষিত করার চেষ্টা চালিয়ে যায় যতক্ষণ না বৈষম্যবিদ ডেটা নতুন বলে বলতে পারে না।

ম্যাকাফির সিনিয়র ভাইস প্রেসিডেন্ট এবং চিফ টেকনোলজি অফিসার (সিটিও) স্টিভ গ্রোবম্যান যেমন সান ফ্রান্সিসকোতে মার্চ মাসে আরএসএ সম্মেলন 2019 তে উল্লেখ করেছিলেন, ফটোগ্রাফির আবিষ্কারের পরে থেকে ভুয়া ছবিগুলি প্রায় রয়েছে। তিনি বলেছিলেন যে ফটোগুলি পরিবর্তন করা একটি সহজ কাজ যা আপনি অ্যাডোব ফটোশপের মতো কোনও অ্যাপ্লিকেশনটিতে সম্পাদন করতে পারেন। তবে এখন এই ধরণের উন্নত সম্পাদনার ক্ষমতাগুলি ভিডিওতেও চলছে এবং তারা অত্যন্ত সক্ষম এবং সহজে অ্যাক্সেসযুক্ত সফ্টওয়্যার সরঞ্জাম ব্যবহার করে এটি করছে।

ডিপফেকস কীভাবে তৈরি করা হয়

যদিও এআই ধারণাগুলি বোঝা সহায়ক, তবুও একটি ডিপফেক ভিডিও তৈরি করার জন্য ডেটা বিজ্ঞানী হওয়ার দরকার নেই। গ্রোবম্যানের মতে এটিতে অনলাইনে কিছু নির্দেশনা অনুসরণ করা জড়িত। আরএসএ সম্মেলন 2019 এ (উপরের ভিডিওটি দেখুন), তিনি ম্যাকাফির চিফ ডেটা সায়েন্টিস্ট এবং সিনিয়র অধ্যক্ষ ইঞ্জিনিয়ার ডাঃ সেলস্টে ফ্রেলিকের সাথে একটি ডিপফেক ভিডিও প্রকাশ করেছিলেন। ডিপফেক ভিডিওটি হ'ল এই প্রযুক্তিটি যে হুমকির চিত্র তুলে ধরে। গ্রোম্যান এবং ফ্রেলিক দেখিয়েছেন যে কোনও ভিডিওতে একজন সরকারী কর্মকর্তা কীভাবে বিপজ্জনক কিছু বলে জনগণকে বিভ্রান্ত করতে পারে তা ভাবতে বার্তাটি সত্য is

তাদের ভিডিওটি তৈরি করতে গ্রোবম্যান এবং ফ্রেলিক ডিপফেক সফ্টওয়্যারটি ডাউনলোড করেছেন। এরপরে তারা 2017 সালে মার্কিন সিনেটের সামনে গ্রোবম্যান সাক্ষ্যগ্রহণের একটি ভিডিও নিয়েছিল এবং গ্রাবম্যানের প্রতি ফ্রেলিকের মুখ সুপারিশ করেছিল।

"আমি এমএল মডেল তৈরি ও প্রশিক্ষণের জন্য অবাধে উপলভ্য পাবলিক মন্তব্যগুলি ব্যবহার করেছিলাম; যাতে আমার কথাগুলি মুখ থেকে বেরিয়ে আসে এবং আমাকে একটি ডিপফেক ভিডিও তৈরি করতে দেয়, " ফ্রেস স্টেট থেকে আরএসএ দর্শকদের বলেছিলেন। ফ্রেলিক আরও বলেছিলেন যে ডিপফেক ভিডিওগুলি সামাজিক শোষণ এবং তথ্য যুদ্ধের জন্য ব্যবহার করা যেতে পারে।

তাদের ডিপফেক ভিডিও তৈরি করতে, গ্রোবম্যান এবং ফ্রেলিক একটি রেডডিট ব্যবহারকারী ফেক অ্যাপ নামে পরিচিত একটি সরঞ্জাম ব্যবহার করেছেন, যা এমএল অ্যালগরিদম এবং ফটোগুলিতে ভিডিওগুলিতে মুখের পরিবর্তন করতে ব্যবহার করে। তাদের আরএসএ উপস্থাপনের সময় গ্রোবম্যান পরবর্তী পদক্ষেপগুলি ব্যাখ্যা করেছিলেন। "আমরা ভিডিওগুলিকে স্থির চিত্রগুলিতে বিভক্ত করেছি, আমরা মুখগুলি বের করেছি এবং আমরা তাদের বাছাই করে পরিষ্কার করেছি এবং ইনস্টাগ্রামে সেগুলি পরিষ্কার করেছি।"

পাইথন স্ক্রিপ্টগুলি ফ্র্যাকের বক্তৃতা গ্রোবম্যানের মুখের সাথে মিলিয়ে দেওয়ার জন্য ম্যাকাফি দলকে মুখের আন্দোলন তৈরি করতে দেয়। তারপরে তাদের কিছু কাস্টম স্ক্রিপ্ট লেখার দরকার ছিল। গ্রোবম্যান বলেছিলেন যে, যখন লিঙ্গ, বয়স এবং ত্বকের সুরের মতো বৈশিষ্ট্য মেলে না, তখন একটি দৃinc়প্রত্যয়ী ডিপফেক তৈরির ক্ষেত্রে চ্যালেঞ্জ।

এরপরে তিনি এবং ফ্রেলিক ফ্রেবিকের বক্তব্যের সাথে সিনেটের সামনে গ্রোম্যানের সাক্ষ্যগ্রহণের চিত্রগুলির সাথে মেলে একটি চূড়ান্ত এআই অ্যালগরিদম ব্যবহার করেছিলেন। গ্রোবম্যান যোগ করেছেন যে এই এমএল অ্যালগরিদমগুলি প্রশিক্ষণের জন্য 12 ঘন্টা সময় লেগেছে।

ম্যাকাফি 2019 আরএসএ সম্মেলনে প্রদর্শিত একটি ডিপফেক ভিডিও তৈরি করতে যে পদক্ষেপ নিয়েছে তা তুলে ধরেছিলেন। এতে ফ্রেকে অ্যাপের নামক ডিপফেক সফটওয়্যার এবং ফ্রলিকের বক্তৃতা দিয়ে গ্রোবম্যানের ভিডিও পরিবর্তনের জন্য এমএল মডেলদের প্রশিক্ষণ দেওয়া হয়েছিল। (চিত্রের ক্রেডিট: ম্যাকাফি)।

ডিপফেকসের ফলাফল

হ্যাকার দ্বারা নির্মিত ডিপফেক ভিডিওগুলিতে অনেক সমস্যার কারণ হওয়ার সম্ভাবনা রয়েছে - সরকারী আধিকারিকদের থেকে মিথ্যা ভুল তথ্য ছড়িয়ে দেওয়া সেলিব্রিটিদের প্রতি ভিডিওগুলির মধ্যে থাকা থেকে তারা বিব্রত হয় যা তারা সত্যিকারের প্রতিযোগীদের শেয়ার বাজারের ক্ষতিগ্রস্থ সংস্থাগুলির ক্ষতিগ্রস্থ সংস্থাগুলিতে ছিল না। এই সমস্যাগুলি সম্পর্কে অবগত হয়ে, সংসদ সদস্যরা সেপ্টেম্বরে মার্কিন জাতীয় গোয়েন্দা পরিচালক ড্যানিয়েল কোটকে একটি চিঠি পাঠিয়েছিলেন, যা গভীরভাবে জড়িত হুমকির বিষয়ে পর্যালোচনা করার জন্য অনুরোধ করেছিল। চিঠিতে হুঁশিয়ারি দেওয়া হয়েছিল যে রাশিয়ার মতো দেশগুলি মিথ্যা তথ্য ছড়িয়ে দিতে সোশ্যাল মিডিয়ায় ডিপফেকস ব্যবহার করতে পারে। ডিসেম্বরে, আইন প্রণেতারা "অডিওভিজুয়াল রেকর্ডগুলির ক্ষেত্রে" জালিয়াতি নিষিদ্ধ করার জন্য ২০১ of সালের ম্যালিসিয়াস ডিপ জাল নিষিদ্ধ আইন আইন প্রবর্তন করেছিলেন যা ডিপফেকসকে বোঝায়। বিলটি পাস হবে কিনা তা এখনও দেখার বিষয়।

উল্লিখিত হিসাবে, সেলিব্রিটিরা ভিডিওগুলি থেকে বিব্রত হতে পারে যার মধ্যে পর্ন তারকাদের মুখের উপর তাদের মুখ চাপানো হয়েছে, যেমন গাল গ্যাডোটের ক্ষেত্রে ছিল। বা কল্পনা করুন যে কোনও সিইও অনুমিতভাবে পণ্যের সংবাদ ঘোষণা করে এবং কোনও সংস্থার স্টক ডুবিয়েছে। সুরক্ষা পেশাদাররা এই ধরণের আক্রমণ সনাক্ত করতে এমএল ব্যবহার করতে পারেন, তবে যদি তারা সময়মতো সনাক্ত না করা হয় তবে তারা কোনও দেশ বা ব্র্যান্ডের অপ্রয়োজনীয় ক্ষতি ডেকে আনতে পারে।

"ডিপফেকসের সাহায্যে, আপনি কী করছেন এবং যদি জানেন যে আপনি কে লক্ষ্য করবেন, আপনি সত্যিই একটি ব্র্যান্ডের প্রচুর ক্ষতি করার জন্য একটি দৃ video়প্রত্যয়ী ভিডিও নিয়ে আসতে পারেন, " বলেছেন ফোরেস্টার রিসার্চের প্রিন্সিপাল অ্যানালিস্ট ড। চেস কানিংহাম said । তিনি আরও যোগ করেছেন, আপনি যদি এই বার্তাগুলি লিংকডইন বা টুইটারে বিতরণ করেন বা কোনও বট ফর্ম ব্যবহার করেন, "আপনি কিছুটা প্রচেষ্টা ছাড়াই মোট বোগাস ভিডিওর ভিত্তিতে কোনও সংস্থার স্টককে ক্রাশ করতে পারেন""

ডিপফেক ভিডিওগুলির মাধ্যমে গ্রাহকরা বিশ্বাস করে যে কোনও পণ্য এমন কিছু করতে পারে যা তা পারছে না। কানিংহাম উল্লেখ করেছেন যে, একটি বড় গাড়ি প্রস্তুতকারকের প্রধান নির্বাহী কর্মকর্তা যদি একটি বগাস ভিডিওতে বলেছিলেন যে সংস্থাটি আর গ্যাস চালিত যানবাহন তৈরি করে না এবং সেই ভিডিওতে টুইটার বা লিংকডইন এ বার্তাটি ছড়িয়ে দেয়, তবে এই ক্রিয়াটি সহজেই কোনও ব্র্যান্ডের ক্ষতি করতে পারে।

কানিংহাম বলেছিলেন, "আমার গবেষণার থেকে আকর্ষণীয়ভাবেই লোকেরা শিরোনাম এবং ভিডিওগুলির ভিত্তিতে 37 সেকেন্ডের মধ্যে সিদ্ধান্ত নেয়, " তাই আপনি কল্পনা করতে পারেন যে আপনি যদি 37 সেকেন্ডের চেয়ে বেশি সময় ধরে চলতে পারে এমন কোনও ভিডিও পেতে পারেন তবে লোকেরা তার ভিত্তিতে সিদ্ধান্ত নিতে পারে বাস্তব বা না। এবং এটি ভয়াবহ।"

যেহেতু সোশ্যাল মিডিয়া একটি দুর্বল জায়গা যেখানে ডিপফেক ভিডিওগুলি ভাইরাল হতে পারে, তাই সোশ্যাল মিডিয়া সাইটগুলি স্নেহশীল ডিপফেকসের হুমকির বিরুদ্ধে লড়াই করার জন্য কাজ করছে। উদাহরণস্বরূপ, ফেসবুক এমন ইঞ্জিনিয়ারিং দল মোতায়েন করে যাতে ম্যানিপুলেটেড ফটো, অডিও এবং ভিডিও খুঁজে পেতে পারে। সফ্টওয়্যার ব্যবহারের পাশাপাশি, ফেসবুক (এবং অন্যান্য সামাজিক মিডিয়া সংস্থাগুলি) ম্যানুয়ালি ডিপফেকস অনুসন্ধান করার জন্য লোককে ভাড়া করে।

একটি ফেসবুক প্রতিনিধি একটি বিবৃতিতে বলেছেন, "আমরা ডিপফেকস মোকাবেলায় অন্তর্ভুক্ত করার জন্য হেরফের করা গণমাধ্যমের বিরুদ্ধে লড়াইয়ের আমাদের চলমান প্রচেষ্টাকে প্রসারিত করেছি।" "আমরা জানি যে সকল ধরণের কারসাজি করা গণমাধ্যমের ক্রমাগত উত্থান সমাজের জন্য প্রকৃত চ্যালেঞ্জ উপস্থাপন করে। তাই আমরা নতুন প্রযুক্তিগত সমাধানে বিনিয়োগ করছি, একাডেমিক গবেষণা থেকে শিখছি, এবং ডিপফেকস এবং হেরফের করা মিডিয়াগুলির অন্যান্য রূপগুলি বোঝার জন্য শিল্পে অন্যদের সাথে কাজ করছি we're ।"

সমস্ত ডিপফেকস খারাপ নয়

যেহেতু আমরা ম্যাকএফির শিক্ষামূলক ডিপফেক ভিডিও এবং গভীর রাতে টিভিতে কমেডিক ডিপফেক ভিডিও সহ দেখেছি, কিছু ডিপফেক ভিডিও অগত্যা খারাপ নয়। প্রকৃতপক্ষে, রাজনীতি যখন ডিপফেক ভিডিওগুলির প্রকৃত বিপদগুলিকে প্রকাশ করতে পারে, বিনোদন শিল্প প্রায়শই কেবল ডিপফেক ভিডিওগুলির হালকা দিক দেখায়।

উদাহরণস্বরূপ, দ্য লেট শো উইথ স্টিফেন কলবার্টের সাম্প্রতিক একটি পর্বে একটি মজাদার ডিপফেক ভিডিও দেখানো হয়েছিল যাতে অভিনেত্রী জেনিফার লরেন্সের দেহের উপরে অভিনেতা স্টিভ বুসেমির মুখ চাপা পড়েছিল। অন্য একটি ক্ষেত্রে, কৌতুক অভিনেতা জর্ডান পিলার তার নিজের কণ্ঠ দিয়ে প্রাক্তন রাষ্ট্রপতি বারাক ওবামার একটি ভিডিও প্রতিস্থাপন করেছেন। এর মতো হাস্যকর ডিপফেক ভিডিওগুলিও অনলাইনে প্রকাশিত হয়েছে, যেখানে এই ব্যক্তি কথা বলার সাথে সাথে রাষ্ট্রপতি ট্রাম্পের মুখ জার্মান চ্যান্সেলর অ্যাঞ্জেলা মের্কেলের মুখের উপরে চাপিয়ে দেওয়া হয়েছে।

আবার, যদি ডিপফেক ভিডিওগুলি ব্যঙ্গাত্মক বা হাস্যকর উদ্দেশ্যে বা কেবল বিনোদন হিসাবে ব্যবহার করা হয়, তবে সোশ্যাল মিডিয়া প্ল্যাটফর্ম এবং এমনকি চলচ্চিত্র প্রযোজনাগুলি তাদের অনুমতি দেয় বা ব্যবহার করে। উদাহরণস্বরূপ, ফেসবুক তার প্ল্যাটফর্মে এই ধরণের সামগ্রীর অনুমতি দেয় এবং লুকাসফিল্ম অভিনেত্রী ইংভিল্ড দেইলার শরীরে একটি তরুণ ক্যারী ফিশারকে "রোগ ওয়ান: এ স্টার ওয়ারস স্টোরি" তে বৈশিষ্ট্যযুক্ত করার জন্য এক প্রকার ডিজিটাল বিনোদন ব্যবহার করেছিলেন।

ম্যাকাফির গ্রোবম্যান উল্লেখ করেছিলেন যে অভিনেতাগুলিকে সুরক্ষিত রাখতে সিনেমা নির্মাণে স্টান্ট ডাবলসের সাথে ডিপফেকসের পিছনে কিছু প্রযুক্তি ব্যবহার করা হয়। গ্রোকম্যান বলেছেন, "প্রসঙ্গটি হ'ল এটি যদি কৌতুককর উদ্দেশ্যগুলির জন্য হয় এবং এটি স্পষ্টভাবে প্রমাণিত হয় যে এটি বাস্তব নয়, এটি এমন কিছু যা প্রযুক্তির বৈধ ব্যবহার, " "এটি বিভিন্ন প্রকারের জন্য বিভিন্ন ধরণের জন্য ব্যবহার করা যেতে পারে তা স্বীকৃতি দেওয়া মুখ্য""

(চিত্রের ক্রেডিট: স্ট্যাটিস্টা)

ডিপফেক ভিডিওগুলি কীভাবে সনাক্ত করবেন

জাল ভিডিওগুলি কীভাবে সনাক্ত করা যায় সে সম্পর্কে ম্যাকাফি একমাত্র সুরক্ষা সংস্থা নয় experiment ব্ল্যাক হাট 2018-এ শিরোনামযুক্ত তার গবেষণাপত্রে, "এআই গন রোগ: বিপদ ডেকে আনার আগে গভীর জাল বর্জন করা হচ্ছে", দুই সিম্যানটেক সিকিউরিটি বিশেষজ্ঞ সিকিউরিটি রেসপন্স লিড বিজয় থাওয়ের এবং সফটওয়্যার ডেভলপমেন্ট ইঞ্জিনিয়ার নিরঞ্জন অগ্নিহোত্রী লিখেছেন যে তারা স্পষ্ট করার জন্য একটি সরঞ্জাম তৈরি করেছে গুগল ফেসনেট ভিত্তিক জাল ভিডিও। গুগল ফেসনেট একটি নিউরাল নেটওয়ার্ক আর্কিটেকচার যা গুগল গবেষকগণ মুখের যাচাইকরণ এবং স্বীকৃতিতে সহায়তা করার জন্য বিকাশ করেছিলেন। ব্যবহারকারীরা একটি নির্দিষ্ট চিত্রে একটি ফেসনেট মডেলকে প্রশিক্ষণ দেয় এবং তারপরে পরীক্ষার সময় তাদের পরিচয় যাচাই করতে পারে can

ডিপফেক ভিডিওগুলি ছড়িয়ে দেওয়ার চেষ্টা করার জন্য, এআই ফাউন্ডেশন, একটি অলাভজনক সংস্থা যা মানব এবং এআই এর মিথস্ক্রিয়াকে কেন্দ্র করে, জাল বিষয়বস্তু সনাক্ত করার জন্য "রিয়ালিটি ডিফেন্ডার" নামে একটি সফ্টওয়্যার সরবরাহ করে। এটি এআই ব্যবহার করে পরিবর্তন করা হয়েছে কিনা তা দেখতে এটি চিত্র এবং ভিডিও স্ক্যান করতে পারে। যদি তাদের থাকে তবে তারা একটি "সৎ এআই ওয়াটারমার্ক" পাবে।

  • মেশিন লার্নিংয়ের ব্যবসায়ের গাইড মেশিন লার্নিংয়ের ব্যবসায়িক গাইড
  • পর্নহাব, টুইটার নিষিদ্ধ 'ডিপফেক' এআই-সংশোধিত পর্ন পর্নহাব, টুইটার নিষিদ্ধ করেছে 'ডিপফেক' এআই-মডিফাইড পর্ন
  • সর্বশেষ ডিপফেক টেক আপনি ব্রুনো মার্সের মতো নৃত্য করবেন

অন্য কৌশলটি হ'ল জিরো ট্রাস্টের ধারণাটি মাথায় রাখা, যার অর্থ "কখনই বিশ্বাস করবেন না, সর্বদা যাচাই করুন" cyএ সাইবারসিকিউরিটির মূলমন্ত্রটির অর্থ আইটি পেশাদারদের অবশ্যই নিশ্চিত করা উচিত যে সমস্ত ব্যবহারকারীদের অ্যাক্সেসের সুযোগ দেওয়ার আগে বৈধ কিনা। ভিডিও সামগ্রীর বৈধতার সংশয় রেখে দেওয়া আবশ্যক। আপনি ডিজিটাল বিশ্লেষণ ক্ষমতা সহ সফ্টওয়্যারও নকল সামগ্রী স্পট করতে চাইবেন।

ডিপফেকস খুঁজছেন

এগিয়ে যাওয়ার জন্য, আমাদের ভিডিও সামগ্রীর সাথে আরও সতর্ক হওয়া এবং অপব্যবহার করা হলে তারা সমাজে যেসব বিপদগুলি উপস্থাপন করতে পারে তা মনে রাখতে হবে। গ্রোবম্যান যেমন উল্লেখ করেছেন, "নিকটবর্তী সময়ে লোকেরা যা দেখেন এবং তাদের যে ভিডিও এবং অডিওটি বানোয়াট হতে পারে তা স্বীকৃতি দেওয়ার বিষয়ে আরও সংশয়ী হওয়া দরকার" "

সুতরাং, আগামী নির্বাচনের মরসুমে যাওয়ার সময় আপনি যে রাজনৈতিক ভিডিওগুলি দেখছেন সে সম্পর্কে সন্দেহজনক নজর রাখুন এবং কর্পোরেট নেতাদের বৈশিষ্ট্যযুক্ত সমস্ত ভিডিওতে বিশ্বাস করবেন না। কারণ আপনি যা শুনছেন তা সত্যিই যা বলা হয়েছিল তা না-ও হতে পারে এবং বিভ্রান্তকারী ডিপফেক ভিডিওগুলি আমাদের সমাজকে সত্যই ক্ষতিগ্রস্থ করার সম্ভাবনা রাখে।

আইআই এবং মেশিন লার্নিং শোষন করে, ডিপফেকস, এখন সনাক্ত করা আরও শক্ত