Skip to content
Home » Machine learning-activiteiten bieden flexibiliteit, volgen innovatie

Machine learning-activiteiten bieden flexibiliteit, volgen innovatie

    Machine learning-activiteiten bieden flexibiliteit, volgen innovatie

    De belangrijkste functie van MLOps is het automatiseren van de meer herhaalbare stappen in de ML-workflows van datawetenschappers en ML-engineers, van modelontwikkeling en training tot modelimplementatie en -gebruik (modelserving). Het automatiseren van deze stappen zorgt voor flexibiliteit voor bedrijven en betere ervaringen voor gebruikers en eindklanten, waardoor de snelheid, kracht en betrouwbaarheid van ML toenemen. Deze geautomatiseerde processen kunnen ook risico’s verminderen en ontwikkelaars bevrijden van routinetaken, waardoor ze meer tijd kunnen besteden aan innovatie. Dit draagt ​​allemaal bij aan de bottom line: een wereldwijd onderzoek van McKinsey uit 2021 wees uit dat bedrijven die AI met succes opschalen, tot 20 procent kunnen toevoegen aan hun inkomsten vóór rente en belastingen (EBIT).

    “Het is niet ongebruikelijk voor bedrijven met geavanceerde ML-mogelijkheden om verschillende ML-tools in afzonderlijke delen van het bedrijf te incuberen”, zegt Vincent David, senior director voor machine learning bij Capital One. “Maar vaak begin je parallellen te zien: ML-systemen doen vergelijkbare dingen, maar met een iets andere draai. De bedrijven die uitzoeken hoe ze het meeste uit hun investeringen in ML kunnen halen, bundelen en versterken hun beste ML-mogelijkheden om gestandaardiseerde, fundamentele tools en platforms te creëren die iedereen kan gebruiken – en uiteindelijk gedifferentieerde waarde in de markt te creëren.”

    In de praktijk vereist MLOps een nauwe samenwerking tussen datawetenschappers, ML-ingenieurs en site-betrouwbaarheidsingenieurs (SRE’s) om consistente reproduceerbaarheid, monitoring en onderhoud van ML-modellen te garanderen. In de afgelopen jaren heeft Capital One MLOps-best practices ontwikkeld die van toepassing zijn in alle sectoren: het balanceren van gebruikersbehoeften, het adopteren van een gemeenschappelijke, cloudgebaseerde technologiestack en fundamentele platforms, het benutten van open-sourcetools en het zorgen voor het juiste niveau van toegankelijkheid en governance voor zowel data als modellen.

    Begrijp de verschillende behoeften van verschillende gebruikers

    ML-applicaties hebben over het algemeen twee hoofdtypen gebruikers: technische experts (datawetenschappers en ML-engineers) en niet-technische experts (businessanalisten) en het is belangrijk om een ​​evenwicht te vinden tussen hun verschillende behoeften. Technische experts geven vaak de voorkeur aan volledige vrijheid om alle beschikbare tools te gebruiken om modellen te bouwen voor hun beoogde gebruikssituaties. Niet-technische experts hebben daarentegen gebruiksvriendelijke tools nodig waarmee ze toegang hebben tot de gegevens die ze nodig hebben om waarde te creëren in hun eigen workflows.

    Om consistente processen en workflows op te bouwen en tegelijkertijd beide groepen tevreden te stellen, raadt David aan om een ​​ontmoeting te hebben met het applicatieontwerpteam en materiedeskundigen voor een breed scala aan gebruiksscenario’s. “We kijken naar specifieke gevallen om de problemen te begrijpen, zodat gebruikers krijgen wat ze nodig hebben voor hun werk, in het bijzonder, maar ook voor het bedrijf in het algemeen”, zegt hij. “De sleutel is om erachter te komen hoe je de juiste capaciteiten kunt creëren en tegelijkertijd de verschillende belanghebbenden en zakelijke behoeften binnen de onderneming kunt balanceren.”

    Adopteer een gemeenschappelijke technologie-stack

    Samenwerking tussen ontwikkelteams – cruciaal voor succesvolle MLOps – kan moeilijk en tijdrovend zijn als deze teams niet dezelfde technologie-stack gebruiken. Een uniforme tech-stack stelt ontwikkelaars in staat om componenten, functies en tools te standaardiseren en opnieuw te gebruiken voor modellen zoals Legoblokjes. “Dat maakt het gemakkelijker om gerelateerde mogelijkheden te combineren, zodat ontwikkelaars geen tijd verspillen aan het overschakelen van het ene model of systeem naar het andere”, zegt David.

    Een cloud-native stack, gebouwd om te profiteren van het cloudmodel van gedistribueerd computergebruik, stelt ontwikkelaars in staat on-demand selfservice-infrastructuur te bieden, waarbij voortdurend nieuwe mogelijkheden worden benut en nieuwe services worden geïntroduceerd. De beslissing van Capital One om all-in te gaan op de openbare cloud heeft een opmerkelijke impact gehad op de efficiëntie en snelheid van ontwikkelaars. Code-releases naar productie gaan nu veel sneller en ML-platforms en -modellen zijn herbruikbaar in de bredere onderneming.

    Bespaar tijd met open-source ML-tools

    Open-source ML-tools (code en programma’s die vrij beschikbaar zijn voor iedereen om te gebruiken en aan te passen) zijn kerningrediënten bij het creëren van een sterke cloudbasis en uniforme tech-stack. Door bestaande open source-tools te gebruiken, hoeft het bedrijf geen kostbare technische middelen te besteden aan het opnieuw uitvinden van het wiel, waardoor teams sneller modellen kunnen bouwen en implementeren.