OpenAI připravuje pokročilé AI systémy pro biologii s důrazem na bezpečnost a prevenci zneužití
Pokročilé modely umělé inteligence mají sílu rychle urychlit vědecké objevy, což je jedním z mnoha způsobů, jak budou nejmodernější AI modely prospěšné lidstvu. V biologii již tyto modely pomáhají vědcům identifikovat, které nové léky mají největší pravděpodobnost úspěchu v klinických studiích na lidech. Brzy by také mohly urychlit objevování léků, navrhovat lepší vakcíny, vytvářet enzymy pro udržitelná paliva a odhalovat nové léčby vzácných onemocnění, čímž otevřou nové možnosti v medicíně, veřejném zdraví a environmentálních vědách.
Současně však tyto modely vyvolávají důležité otázky dvojího využití – umožňují vědecký pokrok, zatímco udržují bariéru proti škodlivým informacím. Stejné základní schopnosti, které pohánějí pokrok, jako je uvažování nad biologickými daty, předpovídání chemických reakcí nebo vedení laboratorních experimentů, by mohly být také potenciálně zneužity k pomoci lidem s minimálními znalostmi při reprodukci biologických hrozeb nebo k asistenci velmi kvalifikovaným aktérům při vytváření biologických zbraní.
Vícestupňový přístup k zajištění bezpečnosti
OpenAI očekává, že nadcházející AI modely dosáhnou "vysoké" úrovně schopností v biologii podle jejich Připravenostního rámce (Preparedness Framework) a přijímají vícestupňový přístup k zavedení zmírňujících opatření. Jejich přístup je zaměřen na prevenci – nepovažují za přijatelné čekat a pozorovat, zda dojde k biologické hrozbě, než se rozhodnou o dostatečné úrovni ochranných opatření.
Budoucnost bude vyžadovat hlubší spolupráci s experty a vládami k posílení a pomoci při odhalování problémů, které by žádná jednotlivá organizace nemohla zachytit sama. OpenAI konzultovala s externími experty v každé fázi této práce. Na začátku pracovali s předními experty na biologickou bezpečnost, biologické zbraně a bioterorismus, stejně jako s akademickými výzkumníky, aby formovali svůj model biologické bezpečnostní hrozby, hodnocení schopností a zásady modelů a používání.
Ochranná opatření a kontrolní systémy
OpenAI implementovala několik klíčových ochranných mechanismů. Trénují model, aby odmítal nebo bezpečně reagoval na škodlivé požadavky – historicky trénovali modely, aby odmítaly nebezpečné požadavky a budou v tom pokračovat u požadavků, které jsou výslovně škodlivé nebo umožňují vytváření biologických zbraní. Pro požadavky dvojího použití (jako jsou virologické experimenty, imunologie, genetické inženýrství atd.) následují principy uvedené v jejich Model Spec, včetně vyhýbání se odpovědím, které poskytují praktické kroky.
Společnost nasadila robustní systémové monitory napříč všemi produktovými povrchy s nejmodernějšími modely k detekci rizikové nebo podezřelé biologické aktivity. Pokud se něco jeví jako nebezpečné na základě jejich filtrů, odpověď modelu je zablokována. To také spouští automatizované kontrolní systémy a lidská kontrola je zahájena v případě potřeby. Zakazují používání svých produktů k způsobování škod a prosazují své zásady, když vidí zneužití.
Spolupráce s vládními institucemi a odborníky
OpenAI nadále úzce spolupracuje s vládními subjekty, včetně amerického CAISI (US CAISI) a britského AISI (UK AISI). Spolupracovali s Los Alamos National Lab na studiu role AI v mokrých laboratorních prostředích a podporují externí výzkumníky, kteří pokračují v nástrojích a hodnoceních biologické bezpečnosti. Jejich hodnocení schopností, včetně těch podrobně popsaných v jejich systémových kartách, jsou informována expertním vstupem a navržena tak, aby odhadla, kdy model překročí vysoké prahové hodnoty.
Pracují s více týmy expertních red teamers – lidmi, kteří se snaží prolomit jejich bezpečnostní zmírňující opatření. Jejich úkolem je pokusit se obejít všechny jejich obrany komplexním přístupem, stejně jako by to mohl udělat odhodlaný a dobře vybavený protivník. Red teaming v biologické oblasti přináší své vlastní výzvy – většina expertních red teamers postrádá odborné znalosti v oblasti biologických rizik a nemusí být schopna posoudit škodlivost výstupu modelu.
Budoucí plány a summit biologické obrany
Zatímco se OpenAI zaměřuje na zabezpečení svých vlastních modelů, uznávají, že ne všechny organizace budou přijímat stejné preventivní opatření, a svět může brzy čelit širší výzvě široce dostupných AI biologických schopností spojených se stále dostupnějšími nástroji pro syntézu biologických věd. V červenci pořádají summit biologické obrany, který spojí vybranou skupinu vládních výzkumníků a nevládních organizací k prozkoumání rizik dvojího použití, sdílení pokroku a zkoumání toho, jak mohou jejich nejmodernější modely urychlit výzkum.
Jejich cílem je prohloubit partnerství se Spojenými státy a spojenými vládami a lépe porozumět tomu, jak může pokročilá AI podporovat špičkovou práci v biologické obraně, od protiopatření po nové terapie, a posílit spolupráci napříč ekosystémem. Věří, že veřejný a soukromý sektor by měly spolupracovat na posílení biologických obran naší společnosti mimo AI modely.
