Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img

Szerencsejáték vagy extra kereseti lehetőség az interneten: mi is az online kaszinó?

A szerencsejátékok már régóta meghódították a több milliós közönség szívét, különösen akkor, amikor az internetre is átvándoroltak. Az ilyen népszerűség és kereslet mellett más...
HomeTechnológiaTech hírekAz Intel csatlakozik az MLCommons AI Safety munkacsoporthoz

Az Intel csatlakozik az MLCommons AI Safety munkacsoporthoz

Az Intel bejelentette, hogy csatlakozik az MLCommons AI Safety (AIS) új munkacsoportjához az ipar és a tudományos élet mesterségesintelligencia-szakértői mellett. Alapító tagként az Intel szakértelemmel és tudással járul hozzá a mesterséges intelligencia eszközök és modellek biztonságát és kockázati tényezőit mérő benchmarkok rugalmas platformjának létrehozásához. Ahogy a tesztelés kiérlelődik, a munkacsoport által kidolgozott szabványos AI-biztonsági referenciaértékek létfontosságú elemévé válnak társadalmunknak az AI bevezetésével és biztonságával kapcsolatos megközelítésének.

Miért fontos: A nagyméretű nyelvi modellek és eszközök felelősségteljes képzése és alkalmazása rendkívül fontos az e nagy teljesítményű technológiák által jelentett társadalmi kockázatok mérséklésében. Az Intel már régóta felismerte a technológia, különösen a mesterséges intelligencia fejlesztésével kapcsolatos etikai és emberi jogi következmények fontosságát.

Ez a munkacsoport egy biztonsági minősítési rendszert fog kidolgozni az új, gyorsan fejlődő mesterséges intelligencia technológiák által jelentett kockázatok értékelésére. Az Intel részvétele az AIS munkacsoportban a vállalat legújabb kötelezettségvállalása az AI-technológiák felelősségteljes fejlesztése érdekében tett erőfeszítései között.

Az AI biztonsági munkacsoportról: Az AI Safety munkacsoportot az MLCommons szervezi az AI-szakértők multidiszciplináris csoportjának részvételével. A csoport platformot és a közreműködők tesztjeinek gyűjteményét fogja kialakítani, hogy támogassa a különböző felhasználási esetekre vonatkozó AI biztonsági referenciaértékeket.

Az Intel részvételéről: Az Intel azt tervezi, hogy megosztja a mesterséges intelligencia biztonsági megállapításait, valamint a felelős fejlesztésre vonatkozó legjobb gyakorlatokat és folyamatokat, például a red-teaminget és a biztonsági teszteket. A résztvevő tagok teljes listája az MLCommons weboldalán található.

Mi a következő: A munkacsoport kezdeti célja az LLM-ek biztonsági referenciaértékek kidolgozása lesz, a Stanford Egyetem Center for Research on Foundation Models kutatóinak és a HELM (Holistic Evaluation of Language Models) kutatóinak alapmunkájára építve. Az Intel megosztja az AIS munkacsoporttal a mesterséges intelligencia modellek és eszközök fejlesztéséhez belsőleg alkalmazott szigorú, multidiszciplináris felülvizsgálati eljárásait, hogy segítsen létrehozni a legjobb gyakorlatok és referenciaértékek közös készletét az LLM-eket használó generatív mesterséges intelligencia eszközök biztonságos fejlesztésének és telepítésének értékeléséhez.