Nyhet -
Hur du vet att ditt AI-projekt är en rätt investering?
Vad kommer det att krävas för att få AI än mer adapterat i näringslivet? frågar Glenn Fitzgerald, Chief Data Officer, Platform Business Europe på Fujitsu. En idé är att bygga användningsfall och testa på tillförlitlig infrastruktur. Tänk dig en AI «provkörning».
Trots allt prat om att "AI finns överallt", så är verkligheten den att inte många projekt gör det från ett "proof-of-concept"-perspektiv.
De flesta får fördelar genom AI: potentialen att automatisera processer som var alldeles för svåra att hantera utan den; eller förmågan att injicera mycket mer mening och nyans i interaktioner mellan kunder och medarbetare. Men det finns även en hel del hinder.
Hålls tillbaka av infrastruktur, molnkostnader och kompetensbrist
AI kan vara mycket beräkningskrävande. Få företag har infrastrukturen tillgänglig för att hantera det. Molnalternativ finns men är benägna att få skenande kostnader vilket har påverkat många AI-projekt. Ju mer data som behövs, desto mer pengar kommer organisationen att behöva investera. Detta kan bli oöverkomligt mycket snabbt och prestandan kan påverkas.
AI-infrastruktur – särskilt för AI-utbildningsändamål – måste vara väl ansluten, med höghastighets och säker åtkomst till molnet samt datamäklare. De flesta äldre eller befintliga molninfrastrukturer kan inte skalas effektivt för att möta AI-kraven. Att uppgradera nätverk för att hantera floden av data som behövs mellan dig och molnet är något som ofta förbises.
Och de hundratals AI-verktyg med öppen källkod i bibliotek som Googles TensorFlow, Microsoft CNTK och Core ML från Apple är fantastiska, men de måste alla anpassas till din organisation och ditt användningsfall. Få företag har kompetensen på plats för att göra det.
Nya metoder för AI
Men dessa hindren börjar nu överkommas. MLOps, till exempel, är en uppsättning livscykelhanteringsmetoder för att distribuera och underhålla maskininlärningsmodeller (ML) i produktionen på ett tillförlitligt och effektivt sätt. Det praktiseras mellan datavetare, DevOps och ML-ingenjörer genom att överföra en ML-algoritm till produktionssystem.
Men det lämnar fortfarande frågan om hur man testar en idé för första gången - i en organisation som ännu inte har monterat den nödvändiga infrastrukturen eller har kompetensen.
På den här praktiska nivån finns det nu en ny "AI Test Drive" baserad på PRIMERGY-servrar från Fujitsu i Europa, som gör det möjligt för datavetare som vill prova AI men - innan de anslår resurser - vill ta reda på om det är ett hållbart användningsfall och vad (och hur mycket) det kommer att krävas för att övervinna barriärerna.
Hårdvaruutmaning
AI-testkörningen tar bort en av de största stötestenarna som datavetare ofta möter – att hitta hårdvaran och köra tester. AI kan kräva enorma mängder datorkraft. De flesta organisationer har dock inte resurserna att köpa sin egen AI-infrastruktur – särskilt för testsyften – vilket gör dem i underläge när de driver AI-projekt.
Det något är en höna-och-ägg-utmaning. Att investera i datorkraft och andra resurser kräver ett vattentätt affärscase som tydligt visar den potentiella avkastningen på investeringen. Det är dock omöjligt att utveckla detta affärscase utan tillgång till den datorkraft som krävs för att exakt fastställa projektets krav.
Fujitsus AI Test Drive erbjuder denna möjlighet - huvudsakligen gratis. Det ger den datorkraft, nätverkskapacitets, justeringar av öppen källkodsverktyg och handhållning som AI-nyfikna affärsanvändare behöver för att räkna ut om de har ett hållbart affärscase. Genom att använda AI Test Drive kan datavetare sluta gissa och skapa ett solitt, kostnadseffektivt argument för investerare att inse kraften i AI och driva sin forskning vidare och snabbare.
Fujitsu kommer också att ge rådgivning om AI är rätt tillvägagångssätt i första hand - det är det ofta inte. Vi uppskattar att i upp till 60 % av fallen erbjuder konventionell automation (med till exempel RPA) en bättre, snabbare lösning med lägre risk för de affärsutmaningar vi ser än AI.
GPU:er var en tillfällig fix
När det gäller teknikval är det inte längre en slam-dunk för grafikprocessorer (GPU). I början av AI insåg ingenjörer snabbt att GPU:er, utvecklade för spel och andra grafikintensiva applikationer, gav en färdig lösning för behovet av ultrasnabb bearbetning.
Sedan dess har CPU:er (Central Processing Units) och mjukvarubiblioteken som körs på dem utvecklats till att bli mycket mer kapabla till djupinlärningsuppgifter. Till exempel, genom omfattande mjukvaruoptimeringar och tillägg av dedikerad AI-hårdvara, har CPU-baserade system fått förbättringar i prestanda för djupinlärning. Ytterligare verktyg förenklar implementering av djupinlärning för hundratals förutbildade modeller och gör det möjligt för utvecklare att snabbt optimera och distribuera AI-arbetsbelastningarna med förbättrad prestanda, från kant till moln. Därför är processorer perfekta för många applikationer, såsom högupplösta, 3D- och icke-bildbaserad djupinlärningsspråk, text och tidsseriedata.
CPU-baserade system är också generellt sett enklare och mer robusta, till exempel i edge-miljöer. GPU:er har högre strömförbrukning och kylningskrav, medan CPU:er finns tillgängliga i olika beprövade standardsystem för enkel distribution i datacentret och på kanten.
Den insikten visar hur Fujitsus AI Test Drive har byggts genom att arbeta inom ett brett ekosystem, inklusive branschledande teknikpartners som Intel®, SUSE®, NetApp® och Juniper®. Det ekosystemet ger dataforskare direkt tillgång till den teknik de behöver för att validera sina teorier och modeller och hjälpa dem att bygga upp ett starkt affärsmässigt fall för investeringar.
Registrera dig här för en Fujitsu AI Test Drive: www.fujitsu.com/global/ai-test-drive