सध्या AI जनरेट इमेज आणि डीपफेकचे(deep fake) जग आहे. तुम्हाला सोशल मिडीया आणि इंटरनेटवर अनेक असे व्हिडीओ आणि फोटो पाहायला मिळतील जे AI च्या मदतीने तयार करण्यात आले आहेत. काहीवेळा AI च्या मदतीने तयार करण्यात आलेले हे फोटो अगदी खऱ्या फोटोंसारखे दिसतात, त्यामुळे खरे फोटो आणि AI च्या मदतीने तयार करण्यात आलेल्या फोटोंमधील फरक ओळखणं कठीण होतं. डीपफेकच्या बाबतीत सुध्दा असंच आहे. या बनावट व्हिडीओ आणि फोटोंमुळे अनेकदा लोकांमध्ये संभ्रम निर्माण होतो.
आता तुमचा हाच संभ्रम दूर होणार आहे. कारण गुगलने एक नवीन टूल लाँच केलं आहे. या नव्या टूलच्या मदतीने AI च्या मदतीने तयार करण्यात आलेले फोटो आणि व्हिडीओ ओळखण्यासाठी मदत होणार आहे. आर्टिफिशियल इंटेलिजन्सद्वारे फोटो आणि डीपफेक(deep fake) तयार करून काही गुन्हे देखील घडले आहेत. या सर्वांपासून आता गुगलच्या नवीन टूलमुळे सुटका मिळणार आहे.
Google ने Content Credentials नावाची टेक्नोलॉजी स्टेंडर्डचे अधिक सुरक्षित वर्जन लाँच केलं आहे. नवीन तंत्रज्ञान पूर्वीपेक्षा अधिक सुरक्षित केले गेले आहे आणि कोणत्याही प्रकारच्या टँपरिंगसाठी ते अधिक सुरक्षित आहे. Content Credentials तंत्रज्ञान AI च्या मदतीने तयार करण्यात आलेल्या फोटो आणि व्हिडीओना एक लेबल देईल, ज्यामुळे त्यांची ओळख करणं अधिक सोप होणार आहे.
गुगलच्या म्हणण्यानुसार, युजर्सची सर्व माहिती गुगल इमेजेस, लेन्स आणि सर्कल टू सर्चवर दिसणाऱ्या इमेजमधील कंटेंट क्रेडेंशियलमध्ये आढळेल. याचा अर्थ वापरकर्ते कोणत्याही फोटोच्या अबाउट या इमेज विभागात जाऊन इमेज कोणत्याही प्रकारच्या एआय टूलच्या मदतीने तयार केली गेली आहे की नाही किंवा ती एडीट केली गेली आहे हे पाहू शकतील. यासोबतच Google आपली जाहिरात प्रणाली C2PA मेटाडेटाशी जोडण्याचा विचार करत आहे.
हा डेटा भविष्यात कंपनीच्या धोरणांची माहिती देईल. याशिवाय युजर्सना C2PA माहिती देण्यासाठी गुगल यूट्यूबवर काम करत आहे. त्याच्या मदतीने व्हिडिओ कॅमेराने शूट केला गेला आहे की डिजीटल बनवला गेला आहे याची माहिती युजर्सना मिळेल. या नवीन टूलच्या मदतीने युजर्ससाठी व्हिडीओ बाबतची माहिती मिळवणं अधिक सोपे होणार आहे.
अहवालानुसार, फोटो आणि व्हिडिओ शेअरिंग आणि स्टोरेजमध्ये नवीन आयडी टॅग जोडले जात आहेत, जे AI माहिती आणि इमेजच्या डिजिटल स्रोताविषयी माहिती प्रदान करतील. डीपफेक थांबवण्यासाठी गुगल या फीचरवर काम करत असल्याचं सांगितलं जात आहे. डीपफेक हे फोटो, व्हिडिओ, ऑडिओ फाइल्स किंवा इतर माध्यमे आहेत जी चुकीची माहिती पसरवण्यासाठी किंवा लोकांची दिशाभूल करण्यासाठी AI वापरून डिजिटली तयार किंवा एडीट केली जातात.
एलन मस्क, रश्मिका मंदना, आलिया भट्ट, रणवीर सिंह, कॅटरिना, काजोल यांसारखे अनेकजण आतापर्यंत डिपफेकचे शिकार झाले आहेत. अभिनेते अमिताभ बच्चन यांनी एका कंपनीच्या मालकाविरुद्ध खटला दाखल केला ज्याच्या डीपफेक व्हिडिओ जाहिरातींनी तो त्या कंपनीच्या उत्पादनांची जाहिरात करत होता.
हेही वाचा:
बाबा सिद्धीकींच्या हत्येमागे ‘या’ गँगचा हात; पोलीस तपासात धक्कादायक माहिती उघड
‘परदेसी गर्ल’चा नवरात्रीत ‘बहरला हा मधुमास’, डान्स पाहून चाहत्यांनी केले कौतुक
STच्या ताफ्यात लवकरच दाखल होणार नव्याकोऱ्या १०० ई-शिवाई; कोणत्या मार्गे धावणार?