ജനറേറ്റീവ് AI മോഡലുകൾ ഉത്തരവാദിത്തത്തോടെ നിർമ്മിക്കാൻ ഡെവലപ്പർമാരെ സഹായിക്കുകയാണ് പർപ്പിൾ ലാമ പ്രോജക്റ്റ് ലക്ഷ്യമിടുന്നത്.
ജനറേറ്റീവ് AI മോഡലുകൾ പൊതുവായി ഉപയോഗിക്കുന്നതിന് മുമ്പ് അവയുടെ വിശ്വാസ്യതയും സുരക്ഷയും വിലയിരുത്തുന്നതിനും വർധിപ്പിക്കുന്നതിനുമായി ഡെവലപ്പർമാർക്കായി ഓപ്പൺ സോഴ്സ് ടൂളുകൾ സൃഷ്ടിക്കുന്നതിന് സമർപ്പിച്ചിരിക്കുന്ന പർപ്പിൾ ലാമ എന്ന പ്രോജക്റ്റ് മെറ്റാ അവതരിപ്പിച്ചു.
AI സുരക്ഷ ഉറപ്പാക്കുന്നതിൽ സഹകരിച്ചുള്ള ശ്രമങ്ങളുടെ ആവശ്യകത മെറ്റാ ഊന്നിപ്പറഞ്ഞു, AI വെല്ലുവിളികളെ ഒറ്റപ്പെട്ട് നേരിടാൻ കഴിയില്ലെന്ന് പ്രസ്താവിച്ചു. വലിയ ഭാഷാ മോഡലുകളെയും മറ്റ് AI സാങ്കേതികവിദ്യകളെയും കുറിച്ചുള്ള ആശങ്കകൾ വർദ്ധിക്കുന്നതിനാൽ സുരക്ഷിതമായ genAI വികസിപ്പിക്കുന്നതിനുള്ള ഒരു പങ്കിട്ട അടിത്തറ സ്ഥാപിക്കുകയാണ് പർപ്പിൾ ലാമയുടെ ലക്ഷ്യമെന്ന് കമ്പനി പറഞ്ഞു.
“AI സിസ്റ്റങ്ങൾ നിർമ്മിക്കുന്ന ആളുകൾക്ക് ഒരു ശൂന്യതയിൽ AI യുടെ വെല്ലുവിളികളെ അഭിമുഖീകരിക്കാൻ കഴിയില്ല, അതിനാലാണ് ഞങ്ങൾ കളിക്കളത്തെ സമനിലയിലാക്കാനും തുറന്ന വിശ്വാസത്തിനും സുരക്ഷയ്ക്കുമായി ഒരു ബഹുജന കേന്ദ്രം സൃഷ്ടിക്കാൻ ആഗ്രഹിക്കുന്നത്,” മെറ്റ ഒരു പത്ര വാർത്തയിൽ എഴുതി.
സുരക്ഷിതമായ AI-യിലേക്കുള്ള ഒരു പോസിറ്റീവും സജീവവുമായ ചുവടുവയ്പ്പാണ് പർപ്പിൾ ലാമയെ സൈബർ സുരക്ഷാ സ്ഥാപനമായ ഓൺടൈന്യൂവിലെ ചീഫ് ഇൻഫർമേഷൻ സെക്യൂരിറ്റി ഓഫീസർ വിശേഷിപ്പിച്ചത്.
“ഒരു പ്ലാറ്റ്ഫോമിലേക്ക് വികസനം ശേഖരിക്കുന്നതിൽ സദ്ഗുണ സിഗ്നലിംഗിന്റെയോ നിഗൂഢ ലക്ഷ്യങ്ങളുടെയോ ചില ക്ലെയിമുകൾ തീർച്ചയായും ഉണ്ടാകും – എന്നാൽ വാസ്തവത്തിൽ, ഉപഭോക്തൃ തലത്തിൽ നിന്നുള്ള മികച്ച സംരക്ഷണം ഗുണം ചെയ്യും,” അദ്ദേഹം കൂട്ടിച്ചേർത്തു. “കർക്കശമായ ആന്തരിക, ഉപഭോക്തൃ അല്ലെങ്കിൽ നിയന്ത്രണ ബാധ്യതകളുള്ള സ്ഥാപനങ്ങൾ, തീർച്ചയായും, മെറ്റയിൽ നിന്നുള്ള ഓഫറുകളെക്കാൾ ശക്തമായ മൂല്യനിർണ്ണയങ്ങൾ പിന്തുടരേണ്ടതുണ്ട്, എന്നാൽ വൈൽഡ് വെസ്റ്റിന്റെ സാധ്യതയുള്ള പ്രദേശങ്ങളിൽ വാഴാൻ സഹായിക്കുന്ന എന്തും ആവാസവ്യവസ്ഥയ്ക്ക് നല്ലതാണ്.”
പദ്ധതിയിൽ AI ഡവലപ്പർമാരുമായുള്ള പങ്കാളിത്തം ഉൾപ്പെടുന്നു; AWS, Google ക്ലൗഡ് തുടങ്ങിയ ക്ലൗഡ് സേവനങ്ങൾ; ഇന്റൽ, എഎംഡി, എൻവിഡിയ തുടങ്ങിയ അർദ്ധചാലക കമ്പനികൾ; മൈക്രോസോഫ്റ്റ് ഉൾപ്പെടെയുള്ള സോഫ്റ്റ്വെയർ സ്ഥാപനങ്ങളും. AI മോഡലുകളുടെ കഴിവുകൾ പരിശോധിക്കുന്നതിനും സുരക്ഷാ അപകടസാധ്യതകൾ തിരിച്ചറിയുന്നതിനുമായി ഗവേഷണത്തിനും വാണിജ്യ ഉപയോഗത്തിനുമുള്ള ഉപകരണങ്ങൾ നിർമ്മിക്കാൻ ഈ സഹകരണം ലക്ഷ്യമിടുന്നു.
പർപ്പിൾ ലാമയിലൂടെ പുറത്തിറക്കിയ ആദ്യ സെറ്റ് ടൂളുകളിൽ AI- ജനറേറ്റഡ് സോഫ്റ്റ്വെയറിലെ സൈബർ സുരക്ഷാ അപകടസാധ്യതകൾ വിലയിരുത്തുന്ന CyberSecEval ഉൾപ്പെടുന്നു. അക്രമത്തെക്കുറിച്ചോ നിയമവിരുദ്ധ പ്രവർത്തനങ്ങളെക്കുറിച്ചോ ഉള്ള ചർച്ചകൾ ഉൾപ്പെടെ, അനുചിതമോ ഹാനികരമോ ആയ വാചകം തിരിച്ചറിയുന്ന ഒരു ഭാഷാ മാതൃക ഇത് അവതരിപ്പിക്കുന്നു. ഡെവലപ്പർമാർക്ക് അവരുടെ AI മോഡലുകൾ സുരക്ഷിതമല്ലാത്ത കോഡ് സൃഷ്ടിക്കാനോ സൈബർ ആക്രമണങ്ങളെ സഹായിക്കാനോ സാധ്യതയുണ്ടോ എന്ന് പരിശോധിക്കാൻ CyberSecEval ഉപയോഗിക്കാം. AI സുരക്ഷയ്ക്കായി തുടർച്ചയായ പരിശോധനയുടെയും മെച്ചപ്പെടുത്തലിന്റെയും പ്രാധാന്യം ഉയർത്തിക്കാട്ടുന്ന വലിയ ഭാഷാ മോഡലുകൾ പലപ്പോഴും ദുർബലമായ കോഡ് നിർദ്ദേശിക്കുന്നുവെന്ന് മെറ്റയുടെ ഗവേഷണം കണ്ടെത്തി.
ഈ സ്യൂട്ടിലെ മറ്റൊരു ഉപകരണമാണ് ലാമ ഗാർഡ്, ഹാനികരമോ നിന്ദ്യമോ ആയ ഭാഷയെ തിരിച്ചറിയാൻ പരിശീലിപ്പിച്ച ഒരു വലിയ ഭാഷാ മാതൃക. അനുചിതമായ ഔട്ട്പുട്ടുകളിലേക്ക് നയിച്ചേക്കാവുന്ന നിർദ്ദേശങ്ങൾ ഫിൽട്ടർ ചെയ്യാൻ സഹായിക്കുന്ന, സുരക്ഷിതമല്ലാത്ത ഉള്ളടക്കം അവരുടെ മോഡലുകൾ നിർമ്മിക്കുകയോ സ്വീകരിക്കുകയോ ചെയ്യുമോ എന്ന് പരിശോധിക്കാൻ ഡവലപ്പർമാർക്ക് Llama Guard ഉപയോഗിക്കാം.