आर्टिफिशियल इंटेलिजेंस को सुरक्षित बनाने के लिए गूगल लाया नया AI मॉडल, जानें क्या होगा फायदा

Google Secure AI Framework: तकनीकी दिग्गज ने कहा कि कंपनी ने एक नया टूल पेश किया है जो AI इंडस्ट्री में दूसरों को AI मॉडल को तैनात करने में Google बेस्ट प्रैक्टिस से सीखने में मदद करेगा। एआई के खतरे से बचने के लिए SAIF रिस्क असेसमेंट करता है और सुक्षाव देता है।

Google Secure AI Framework (image-Google)

Google Secure AI Framework: गूगल ने आर्टिफिशियल इंटेलिजेंस (AI) मॉडल को लागू करने के लिए एक नया "Secure AI Framework (SAIF) टूल" लॉन्च किया है, जो AI मॉडल्स को सुरक्षित रूप से डिप्लॉय करने में सहायक है। इस टूल का उद्देश्य गूगल के एआई सिक्योरिटी गाइडलाइन को साझा करना है, ताकि अन्य कंपनियां भी सुरक्षित मॉडल बना सकें। इसके अलावा गूगल ने अपने कोलिशन फॉर सिक्योर एआई (CoSAI) में 35 इंडस्ट्री पार्टनर्स को जोड़ने की भी घोषणा की।

क्या है गूगल का नया Secure AI Framework

यह टूल एक प्रश्नावली के माध्यम से काम करता है, जिसमें डेवलपर्स और एंटरप्राइजेज विभिन्न प्रश्नों का उत्तर देकर एक कस्टम चेक पोस्ट प्राप्त कर सकते हैं। यह चेकलिस्ट AI सुरक्षा के विभिन्न खतरों, जैसे डेटा पॉइजनिंग और प्रॉम्प्ट इंजेक्शन, को पहचानने और हल करने में सहायक है।

गूगल का नया SAIF टूल

एक ब्लॉग पोस्ट में , तकनीकी दिग्गज ने कहा कि कंपनी ने एक नया टूल पेश किया है जो AI इंडस्ट्री में दूसरों को AI मॉडल को तैनात करने में Google बेस्ट प्रैक्टिस से सीखने में मदद करेगा। गूगल ने कहा कि बड़े भाषा मॉडल हानिकारक प्रभावों की एक पूरी सीरीज में सक्षम हैं, अनुचित और अभद्र टेक्स्ट, डीपफेक और फेक न्यूज जनरेट करने से लेकर रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु (CBRN) हथियारों सहित हानिकारक जानकारी जनरेट करना शामिल है।

End Of Feed