افلام اجنبي موقع ايجي بست افضل موقع لمشاهدة احدث الافلام اون لاين وبجودة عالية وبدون تقطيع القاعدة الأولى عند استخدم الإنترنت: لا تصدّق كل ما تشاهده أو تسمعه على الشبكات الاجتماعية! مع تطور التقنية بشكل مخيف، ظهرت تقنيات هددت الثقة والمصداقية وزعزعت مستويات الأمان، أبرزها تقنية التزييف العميق أو Deepfake التي يمكن من خلالها إنتاج مقاطع فيديو مفبركة قابلة للتصديق بشكل كبير. ما هي فيديوهات الديب فيك أو التزييف العميق؟ منذ … The post كيف تكتشف تقنية التزييف العميق Deepfake في مقاطع الفيديو؟ appeared first on شبكة ابو نواف . القاعدة الأولى عند استخدم الإنترنت: لا تصدّق كل ما تشاهده أو تسمعه على الشبكات الاجتماعية! مع تطور التقنية بشكل مخيف، ظهرت تقنيات هددت الثقة والمصداقية وزعزعت مستويات الأمان، أبرزها تقنية التزييف العميق أو Deepfake التي يمكن من خلالها إنتاج مقاطع فيديو مفبركة قابلة للتصديق بشكل كبير. ما هي فيديوهات الديب فيك أو التزييف العميق؟ منذ أن انطلقت هذه التقنية، ظهرت العديد من مقاطع الفيديو لرجال سياسة أو رجال أعمال وشخصيات بارزة في العالم بخطابات مرئية خطيرة، ليتبين بعد ذلك أن هذه المقاطع مزيفة ومن يظهر فيها ليس من نظنه بالفعل! ونظرًا لخطورة هذه التقنية، حاولت العديد من المشاريع والأبحاث البحث في وسائل لكشف التزييف العميق في الفيديو، منها بحث (DFDC) أو ما يُعرف باسم Kaggle's Deepfake Detection Challenge، الذي سعى لإيجاد إجابة حسابية خاصة باكتشاف المنتجات المقلدة. يوضح الوصف الموجود على موقع Kaggle الإلكتروني أن كل من AWS و Facebook و Microsoft والشراكة في اللجنة التوجيهية لنزاهة وسائل الإعلام التابعة لمنظمة العفو الدولية والأكاديميين قد اجتمعوا معًا لبناء تحدي اكتشاف التزييف العميق. والهدف من التحدي هو تحفيز الباحثين على بناء تقنيات مضادة ومبتكرة يمكن أن تساعد في اكتشاف الديب فيك والوسائط المرئية التي تم التلاعب بها. كما رصد البحث مبلغ ضخم قدره مليون دولار للفائزين في المسابقة. من 100000 مقطع فيديو تعرض للتزييف العميق، و19154 مقطع فيديو حقيقي مستضاف في مسابقة Kaggle العامة، تم تدريب سلسلة من الشبكات العصبية لاكتشاف التزييف في المقاطع. من خلال التعلم الآلي الذي تم تدريبه في هذا البحث، تمكن الباحثون من تمييز مقاطع الفيديو الحقيقية من التي تم التلاعب بها بواسطة الذكاء الاصطناعي. وعرضت النتائج مجموعة من الفروقات الدقيقة التي تمتاز بها المقاطع التي تم التلاعب بها، كظروف الإضاءة وخوارزمية تقنيات التلاعب التي تركز بشكل أساسي على الوجه والصوت. كيفية اكتشاف مقاطع الفيديو التي تم التلاعب بها عبر التزييف العميق عندما يتعلق الأمر بالوسائط التي يتم التلاعب بها عبر الذكاء الاصطناعي، لا توجد علامة واحدة توضح كيفية كشف التزييف. مع ذلك، هناك العديد من الخيوط التي يمكنك البحث عنها. انتبه للوجه. غالبًا ما تكون عمليات التلاعب في الديب فيك المتطورة عبارة عن تحولات في الوجه انتبه للخدين والجبهة. هل يبدو الجلد ناعمًا جدًا أو متجعدًا جدًا؟ هل شيخوخة الجلد مشابهة لشيخوخة الشعر والعينين؟ غالبًا ما تكون تقنية التزييف غير متوافقة في بعض الأبعاد انتبه للعيون والحاجبين. هل تظهر الظلال في الأماكن التي تتوقعها؟ غالبًا ما تفشل تقنية التزييف في تمثيل الفيزياء الطبيعية للمشهد بشكل كامل انتبه للنظارات. هل هناك أي وهج؟ هل هناك الكثير من الوهج؟ هل تتغير زاوية الوهج عندما يتحرك الشخص؟ مرة أخرى، غالبًا ما تفشل التقنية في تمثيل الفيزياء الطبيعية للإضاءة بشكل كامل انتبه لشعر الوجه أو قلة الشعر. هل يبدو شعر الوجه هذا حقيقيًا؟ التزييف العميق قد تضيف أو تزيل الشارب أو السوالف أو اللحية. ولكن، غالبًا ما تفشل هذه التقنية في جعل تحولات شعر الوجه طبيعية تمامًا انتبه لشامات الوجه. هل تبدو حقيقية؟ انتبه إلى حركة الرمش. هل يرمش الشخص بشكل كافٍ أم كثيرًا؟ انتبه إلى حجم الشفاه ولونها. هل يتناسب الحجم واللون مع باقي وجه الشخص أم لا؟ بالإجابة على الأسئلة الثمانية أعلاه، بإمكانك اكتشاف المقاطع التي تعرضت للتلاعب. مع الممارسة، سيتكوّن لديك حدس لتحديد ما هو مزيف وما هو حقيقي. اقرأ أيضًا: هل سمعت بتقنية التزييف العميق Deepfakes؟ ما الفرق بين الذكاء الاصطناعي وتعلم الآلة؟ المصدر The post كيف تكتشف تقنية التزييف العميق Deepfake في مقاطع الفيديو؟ appeared first on شبكة ابو نواف .اتصالات و تقنية,deepfake,تزييف عميق,تقنية,ذكاء اصطناعي,مزيف --
شكرا لكم
---
تلقيت هذه الرسالة لأنك مشترك في مجموعة "احدث الاخبار" في مجموعات Google.
لإلغاء الاشتراك في هذه المجموعة وإيقاف تلقي رسائل الإلكترونية منها، أرسل رسالة إلكترونية إلى news2022+unsubscribe@googlegroups.com.
لعرض هذه المناقشة على الويب، انتقل إلى https://groups.google.com/d/msgid/news2022/CACY1A78-q1sWiJvyGEMBAuomFr22%2B5Be7kXUfiCkdHNyF6VVBg%40mail.gmail.com.
No comments:
Post a Comment