Root NationNovinkyIT novinkyMicrosoft oznámila ochranné riešenie AI založené na GPT-4 Security Copilot

Microsoft oznámila ochranné riešenie AI založené na GPT-4 Security Copilot

-

Systémy umelej inteligencie (AI) sa už používajú na vytváranie grafiky, chatbotov a dokonca aj na ovládanie inteligentných domácností. Spoločnosť Microsoft zveril AI jednu z najdôležitejších oblastí moderného života – ochranu pred kybernetickými hrozbami. Nástroj Security Copilot vám umožňuje rozpoznať kybernetický útok, aj keď neexistujú žiadne zjavné príznaky a pomáha pri jeho eliminácii.

V situáciách, keď je z nejakého dôvodu ohrozená bezpečnosť vášho počítača, Security Copilot vám pomôže určiť, čo sa stalo, čo robiť a ako zabrániť tomu, aby sa podobné incidenty stali iným. Spoločnosť predstavila nové riešenie založené na modeli GPT-4 – Security Copilot pomáha firemným klientom vysporiadať sa s hrozbami.

Microsoft Bezpečnostný kopilot

Nástroj je zatiaľ dostupný len pre firemných zákazníkov. Rovnaký veľký jazykový model, ktorý poháňa aplikácie ako Bing Chat, stojí za bezpečnostným pilotom. V tomto prípade však hovoríme o možnosti špeciálne vyškolenej na materiály a terminológiu, ktorú používajú IT profesionáli. Navyše, Microsoft už pripojil Copilot k svojim ďalším bezpečnostným nástrojom. Spoločnosť sľubuje, že časom bude môcť využívať softvérové ​​riešenia tretích strán.

Zatiaľ čo väčšina vlastných aplikácií založených na GPT-4 bola vyškolená na trochu zastaraných súboroch údajov, Security Copilot získava nové informácie v reálnom čase štúdiom doslova biliónov signálov hrozieb, ktoré Microsoft dostáva denne. Toto je výhoda tohto modelu – Security Copilot dokáže rozpoznať skryté signály ešte predtým, ako sa fakt útoku stane zrejmým. Vďaka tomu možno nástroj použiť na rozpoznanie a včasnú elimináciu hrozieb.

Microsoft Bezpečnostný kopilot

Zároveň sa už pred nejakým časom ukázalo, že v AI ako ChatGPT, Bing Chat či Google Bard môže dochádzať k „halucináciám“, pri ktorých sa ako základ „uvažovania“ používajú úplne nespoľahlivé fakty. V oblasti bezpečnosti sa z toho môže stať veľmi nebezpečný jav. IN Microsoft už potvrdili, že Security Copilot „nie vždy robí veci správne“. Našťastie v prípade produktu Microsoft poskytuje sa mechanizmus spätnej väzby od používateľov, ktorý vám umožňuje poskytovať čoraz relevantnejšie odpovede.

Ešte Microsoft neoznámili, čo sa môže stať, keď sa obranná AI zrazí so škodlivou AI, ako je napríklad umelá inteligencia navrhnutá na útoky na používateľov a podniky. V každom prípade spoločnosť uviedla, že podnikoví zákazníci už môžu testovať Security Copilot na malom segmente svojich používateľov. Ak bude experiment úspešný, pravdepodobne bude môcť v budúcnosti pomôcť aj bežným používateľom.

Tiež zaujímavé:

Dzherelomicrosoft
Prihlásiť Se
Upozorniť na
host

0 Komentáre
Vložené recenzie
Zobraziť všetky komentáre