विषयसूची:

डीप फेक: न्यूरोसेट को ध्वनि और वीडियो फेक उत्पन्न करना सिखाया गया था
डीप फेक: न्यूरोसेट को ध्वनि और वीडियो फेक उत्पन्न करना सिखाया गया था

वीडियो: डीप फेक: न्यूरोसेट को ध्वनि और वीडियो फेक उत्पन्न करना सिखाया गया था

वीडियो: डीप फेक: न्यूरोसेट को ध्वनि और वीडियो फेक उत्पन्न करना सिखाया गया था
वीडियो: सोवियत संघ के बारे में शीर्ष-5 मिथक - शीत युद्ध वृत्तचित्र 2024, मई
Anonim

हम में से किसी के लिए "व्यक्तिगत" समाचार चित्र बनाने और उसमें चुनी गई मीडिया रिपोर्टों को गलत साबित करने के लिए, एक प्रोग्रामर के प्रयास आज पर्याप्त हैं। आर्टिफिशियल इंटेलिजेंस और साइबर सुरक्षा के विशेषज्ञों ने इज़वेस्टिया को इस बारे में बताया।

हाल ही में, उन्होंने अनुमान लगाया कि इसके लिए कई टीमों के काम की आवश्यकता है। तंत्रिका नेटवर्क पर हमलों के लिए प्रौद्योगिकियों के विकास और "डीप फेक" बनाने के लिए कार्यक्रमों का उपयोग करके ऑडियो और वीडियो फेक की पीढ़ी के साथ ऐसा त्वरण संभव हो गया है। समाचार पत्र इज़वेस्टिया को हाल ही में इसी तरह के हमले के अधीन किया गया था, जब तीन लीबियाई समाचार पोर्टलों ने एक बार एक संदेश प्रकाशित किया था जो कथित तौर पर एक मुद्दे में दिखाई दिया था। विशेषज्ञों के अनुसार, 3-5 वर्षों के भीतर हम रोबोट मैनिपुलेटर्स के आक्रमण की उम्मीद कर सकते हैं, जो स्वचालित रूप से बहुत सारे नकली बनाने में सक्षम होंगे।

नयी दुनिया

अधिक से अधिक परियोजनाएं हैं जो विशिष्ट उपयोगकर्ताओं की धारणा के लिए सूचना चित्र को समायोजित करती हैं। उनके काम का एक उदाहरण तीन लीबियाई पोर्टलों की हालिया कार्रवाई थी, जिसने 20 नवंबर को इज़वेस्टिया के अंक में कथित रूप से प्रकाशित एक समाचार प्रकाशित किया था। नकली के रचनाकारों ने अखबार के पहले पन्ने को संशोधित किया, उस पर फील्ड मार्शल खलीफा हफ्तार और सरकार के राष्ट्रीय समझौते (पीएनएस) के प्रधान मंत्री फ़ैज़ सरराज के बीच बातचीत के बारे में एक संदेश पोस्ट किया। इज़वेस्टिया टाइपफेस में नकली, मई 2017 में ली गई दोनों नेताओं की एक तस्वीर के साथ थी। प्रकाशन के लोगो वाला लेबल 20 नवंबर के वास्तविक प्रकाशित अंक और 23 अक्टूबर के अंक से पृष्ठ पर अन्य सभी ग्रंथों से काट दिया गया था।

विशेषज्ञों के दृष्टिकोण से, निकट भविष्य में, इस तरह के मिथ्याकरण स्वचालित रूप से किए जा सकते हैं।

द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया
द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया

"कृत्रिम बुद्धिमत्ता प्रौद्योगिकियां अब पूरी तरह से खुली हैं, और डेटा प्राप्त करने और संसाधित करने के लिए उपकरण छोटा और सस्ता हो रहा है," यूरी विल्सिटर, भौतिक और गणितीय विज्ञान के डॉक्टर, रूसी विज्ञान अकादमी के प्रोफेसर, FSUE "GosNIIAS" विभाग के प्रमुख, इज़वेस्टिया को बताया। - इसलिए, इस बात की बहुत अधिक संभावना है कि निकट भविष्य में, राज्य और बड़े निगम भी नहीं, बल्कि केवल निजी व्यक्ति हम पर नज़र रखने और जासूसी करने के साथ-साथ वास्तविकता में हेरफेर करने में सक्षम होंगे। आने वाले वर्षों में, उपयोगकर्ता की प्राथमिकताओं का विश्लेषण करके, समाचार फ़ीड और बहुत चालाक नकली के माध्यम से उसे प्रभावित करना संभव होगा।

यूरी विल्सिटर के अनुसार, मानसिक वातावरण में इस तरह के हस्तक्षेप के लिए जिन तकनीकों का उपयोग किया जा सकता है, वे पहले से मौजूद हैं। सिद्धांत रूप में, रोबोटिक बॉट्स के आक्रमण की उम्मीद कुछ वर्षों में की जा सकती है, उन्होंने कहा। यहां एक सीमित बिंदु दीर्घकालिक परिणामों की ट्रैकिंग के साथ कृत्रिम उत्तेजनाओं के लिए वास्तविक लोगों की प्रतिक्रियाओं के उदाहरणों के बड़े डेटाबेस एकत्र करने की आवश्यकता हो सकती है। लक्षित हमलों को लगातार प्राप्त करने से पहले इस तरह की ट्रैकिंग के लिए कई और वर्षों के शोध की आवश्यकता होगी।

विजन अटैक

SearchInform में एनालिटिक्स विभाग के प्रमुख एलेक्सी पारफेंटिव भी यूरी विल्सिटर से सहमत हैं। उनके अनुसार, विशेषज्ञ पहले से ही तंत्रिका नेटवर्क पर हमलों की भविष्यवाणी करते हैं, हालांकि अब व्यावहारिक रूप से ऐसे कोई उदाहरण नहीं हैं।

- गार्टनर के शोधकर्ताओं का मानना है कि 2022 तक सभी साइबर हमलों में से 30% का लक्ष्य उस डेटा को दूषित करना होगा जिस पर तंत्रिका नेटवर्क प्रशिक्षित होता है और तैयार मशीन लर्निंग मॉडल की चोरी करता है। फिर, उदाहरण के लिए, मानव रहित वाहन अचानक पैदल चलने वालों को अन्य वस्तुओं के लिए समझना शुरू कर सकते हैं। और हम वित्तीय या प्रतिष्ठित जोखिम के बारे में बात नहीं करेंगे, लेकिन आम लोगों के जीवन और स्वास्थ्य के बारे में, विशेषज्ञ का मानना है।

कंप्यूटर विजन सिस्टम पर हमले अब अनुसंधान के हिस्से के रूप में किए जा रहे हैं। इस तरह के हमलों का उद्देश्य तंत्रिका नेटवर्क को छवि में कुछ ऐसा पता लगाना है जो वहां नहीं है। या, इसके विपरीत, यह देखने के लिए नहीं कि क्या योजना बनाई गई थी।

द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया
द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया

"तंत्रिका नेटवर्क के प्रशिक्षण के क्षेत्र में सक्रिय रूप से विकसित होने वाले विषयों में से एक तथाकथित प्रतिकूल हमले ("प्रतिकूल हमले।" - इज़वेस्टिया) है, "कास्परस्की लैब के एक वेब विश्लेषक व्लादिस्लाव तुशकानोव ने समझाया। - ज्यादातर मामलों में, वे कंप्यूटर विज़न सिस्टम के उद्देश्य से होते हैं। इस तरह के हमले को अंजाम देने के लिए, ज्यादातर मामलों में, आपको तंत्रिका नेटवर्क (तथाकथित व्हाइट-बॉक्स अटैक) या इसके काम के परिणामों (ब्लैक-बॉक्स अटैक) तक पूरी पहुंच की आवश्यकता होती है। 100% मामलों में ऐसी कोई विधि नहीं है जो किसी भी कंप्यूटर विज़न सिस्टम को धोखा दे सकती है। इसके अलावा, उपकरण पहले ही बनाए जा चुके हैं जो आपको प्रतिकूल हमलों के प्रतिरोध के लिए तंत्रिका नेटवर्क का परीक्षण करने और उनके प्रतिरोध को बढ़ाने की अनुमति देते हैं।

इस तरह के हमले के दौरान, हमलावर किसी तरह मान्यता प्राप्त छवि को बदलने की कोशिश करता है ताकि तंत्रिका नेटवर्क काम न करे। अक्सर, फोटो पर शोर आरोपित होता है, ठीक उसी तरह जो खराब रोशनी वाले कमरे में फोटो खिंचवाने के दौरान होता है। एक व्यक्ति आमतौर पर इस तरह के हस्तक्षेप को अच्छी तरह से नोटिस नहीं करता है, लेकिन तंत्रिका नेटवर्क खराब होने लगता है। लेकिन इस तरह के हमले को अंजाम देने के लिए, हमलावर को एल्गोरिथम तक पहुंच की आवश्यकता होती है।

न्यूरोसेट एशमनोव के जनरल डायरेक्टर स्टानिस्लाव एशमनोव के अनुसार, इस समस्या से निपटने के लिए वर्तमान में कोई तरीका नहीं है। इसके अलावा, यह तकनीक किसी के लिए भी उपलब्ध है: एक औसत प्रोग्रामर इसका उपयोग जीथब सेवा से आवश्यक ओपन सोर्स सॉफ्टवेयर डाउनलोड करके कर सकता है।

द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया
द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया

- एक तंत्रिका नेटवर्क पर एक हमला एक तंत्रिका नेटवर्क को धोखा देने के लिए एक तकनीक और एल्गोरिदम है, जो इसे गलत परिणाम देता है, और वास्तव में, इसे दरवाजे के ताले की तरह तोड़ देता है, - एशमनोव का मानना है। - उदाहरण के लिए, अब चेहरे की पहचान प्रणाली को यह सोचना काफी आसान है कि यह आप नहीं हैं, बल्कि इसके सामने अर्नोल्ड श्वार्ज़नेगर हैं - यह तंत्रिका नेटवर्क में आने वाले डेटा में मानव आंख के लिए अगोचर एडिटिव्स को मिलाकर किया जाता है। वाक् पहचान और विश्लेषण प्रणालियों के लिए समान हमले संभव हैं।

विशेषज्ञ को यकीन है कि यह केवल बदतर होगा - ये प्रौद्योगिकियां जनता के पास चली गई हैं, धोखेबाज पहले से ही उनका उपयोग कर रहे हैं, और उनके खिलाफ कोई सुरक्षा नहीं है। चूंकि वीडियो और ऑडियो जालसाजी के स्वचालित निर्माण के खिलाफ कोई सुरक्षा नहीं है।

डीप फेक

डीप लर्निंग पर आधारित डीपफेक प्रौद्योगिकियां (तंत्रिका नेटवर्क के गहन सीखने की तकनीक। - इज़वेस्टिया) पहले से ही एक वास्तविक खतरा हैं। वीडियो या ऑडियो नकली प्रसिद्ध लोगों के चेहरे को संपादित या ओवरले करके बनाए जाते हैं जो कथित रूप से आवश्यक पाठ का उच्चारण करते हैं और साजिश में आवश्यक भूमिका निभाते हैं।

ग्रुप-आईबी में अभिनव ब्रांड संरक्षण और बौद्धिक संपदा विभाग के निदेशक एंड्री बुसार्गिन कहते हैं, "डीपफेक आपको वीडियो के साथ होंठों की गतिविधियों और मानव भाषण को बदलने की अनुमति देता है, जो कि जो हो रहा है, उसके यथार्थवाद की भावना पैदा करता है।" - नकली हस्तियां सामाजिक नेटवर्क पर उपयोगकर्ताओं को मूल्यवान पुरस्कार (स्मार्टफोन, कार, धन की रकम), आदि के चित्रण में भाग लेने के लिए "प्रस्ताव" करती हैं। ऐसे वीडियो प्रकाशनों के लिंक अक्सर धोखाधड़ी और फ़िशिंग साइटों की ओर ले जाते हैं, जहां उपयोगकर्ताओं को बैंक कार्ड विवरण सहित व्यक्तिगत जानकारी दर्ज करने के लिए कहा जाता है। ऐसी योजनाएं आम उपयोगकर्ताओं और सार्वजनिक हस्तियों दोनों के लिए खतरा पैदा करती हैं जिनका विज्ञापनों में उल्लेख किया जाता है। वे कहते हैं कि इस तरह का घोटाला सेलिब्रिटी छवियों को घोटालों या विज्ञापित सामानों से जोड़ना शुरू कर देता है, और यहीं से हम व्यक्तिगत ब्रांड क्षति में भाग लेते हैं।

द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया
द ट्रूमैन शो - 2019: न्यूरल नेटवर्क्स ने न्यूज पिक्चर को फेक करना कैसे सिखाया

एक और खतरा टेलीफोन धोखाधड़ी के लिए "नकली वोट" के उपयोग से जुड़ा है। उदाहरण के लिए, जर्मनी में, साइबर अपराधियों ने यूके से एक सहायक कंपनी के प्रमुख को एक कंपनी प्रबंधक के रूप में प्रस्तुत करते हुए, टेलीफोन पर बातचीत में € 220,000 का तत्काल हस्तांतरण करने के लिए वॉयस डीपफेक का इस्तेमाल किया।एक हंगेरियन आपूर्तिकर्ता के खाते में। ब्रिटिश फर्म के प्रमुख को एक चाल का संदेह हुआ जब उसके "बॉस" ने दूसरा मनी ऑर्डर मांगा, लेकिन कॉल ऑस्ट्रियाई नंबर से आया था। इस समय तक, पहली किश्त पहले ही हंगरी में एक खाते में स्थानांतरित कर दी गई थी, जहां से पैसा मेक्सिको में वापस ले लिया गया था।

यह पता चला है कि वर्तमान प्रौद्योगिकियां आपको नकली समाचारों से भरी एक व्यक्तिगत समाचार तस्वीर बनाने की अनुमति देती हैं। इसके अलावा, जल्द ही केवल हार्डवेयर द्वारा नकली को वास्तविक वीडियो और ऑडियो से अलग करना संभव होगा। विशेषज्ञों के अनुसार, तंत्रिका नेटवर्क के विकास पर रोक लगाने वाले उपायों के प्रभावी होने की संभावना नहीं है। इसलिए, जल्द ही हम एक ऐसी दुनिया में रहेंगे जिसमें हर चीज की लगातार जांच करना जरूरी होगा।

"हमें इसके लिए तैयारी करने की आवश्यकता है, और इसे स्वीकार किया जाना चाहिए," यूरी विल्सिटर ने जोर दिया। -मानवता पहली बार एक वास्तविकता से दूसरी वास्तविकता में नहीं जा रही है। हमारी दुनिया, जीवन का तरीका और मूल्य उस दुनिया से मौलिक रूप से भिन्न हैं जिसमें हमारे पूर्वज 60,000 साल पहले, 5,000 साल पहले, 2,000 साल पहले और यहां तक कि 200-100 साल पहले रहते थे। निकट भविष्य में, एक व्यक्ति काफी हद तक गोपनीयता से वंचित हो जाएगा और इसलिए उसे कुछ भी छिपाने और ईमानदारी से कार्य करने के लिए मजबूर किया जाएगा। साथ ही, आस-पास की वास्तविकता और अपने व्यक्तित्व में कुछ भी विश्वास पर नहीं लिया जा सकता है, हर चीज पर सवाल उठाना होगा और लगातार जांचना होगा। लेकिन क्या यह भविष्य की वास्तविकता भयानक होगी? नहीं। यह बस पूरी तरह से अलग होगा।

सिफारिश की: