Site icon New York Online

Az Intel csatlakozik az MLCommons AI Safety munkacsoporthoz

Az Intel bejelentette, hogy csatlakozik az MLCommons AI Safety (AIS) új munkacsoportjához az ipar és a tudományos élet mesterségesintelligencia-szakértői mellett. Alapító tagként az Intel szakértelemmel és tudással járul hozzá a mesterséges intelligencia eszközök és modellek biztonságát és kockázati tényezőit mérő benchmarkok rugalmas platformjának létrehozásához. Ahogy a tesztelés kiérlelődik, a munkacsoport által kidolgozott szabványos AI-biztonsági referenciaértékek létfontosságú elemévé válnak társadalmunknak az AI bevezetésével és biztonságával kapcsolatos megközelítésének.

Miért fontos: A nagyméretű nyelvi modellek és eszközök felelősségteljes képzése és alkalmazása rendkívül fontos az e nagy teljesítményű technológiák által jelentett társadalmi kockázatok mérséklésében. Az Intel már régóta felismerte a technológia, különösen a mesterséges intelligencia fejlesztésével kapcsolatos etikai és emberi jogi következmények fontosságát.

Ez a munkacsoport egy biztonsági minősítési rendszert fog kidolgozni az új, gyorsan fejlődő mesterséges intelligencia technológiák által jelentett kockázatok értékelésére. Az Intel részvétele az AIS munkacsoportban a vállalat legújabb kötelezettségvállalása az AI-technológiák felelősségteljes fejlesztése érdekében tett erőfeszítései között.

Az AI biztonsági munkacsoportról: Az AI Safety munkacsoportot az MLCommons szervezi az AI-szakértők multidiszciplináris csoportjának részvételével. A csoport platformot és a közreműködők tesztjeinek gyűjteményét fogja kialakítani, hogy támogassa a különböző felhasználási esetekre vonatkozó AI biztonsági referenciaértékeket.

Az Intel részvételéről: Az Intel azt tervezi, hogy megosztja a mesterséges intelligencia biztonsági megállapításait, valamint a felelős fejlesztésre vonatkozó legjobb gyakorlatokat és folyamatokat, például a red-teaminget és a biztonsági teszteket. A résztvevő tagok teljes listája az MLCommons weboldalán található.

Mi a következő: A munkacsoport kezdeti célja az LLM-ek biztonsági referenciaértékek kidolgozása lesz, a Stanford Egyetem Center for Research on Foundation Models kutatóinak és a HELM (Holistic Evaluation of Language Models) kutatóinak alapmunkájára építve. Az Intel megosztja az AIS munkacsoporttal a mesterséges intelligencia modellek és eszközök fejlesztéséhez belsőleg alkalmazott szigorú, multidiszciplináris felülvizsgálati eljárásait, hogy segítsen létrehozni a legjobb gyakorlatok és referenciaértékek közös készletét az LLM-eket használó generatív mesterséges intelligencia eszközök biztonságos fejlesztésének és telepítésének értékeléséhez.

Exit mobile version