ChatGPT-training is van cruciaal belang voor werknemers. Hier leest u hoe u aan de slag kunt gaan

Jaap Arriens | Nurfoto | Getty-afbeeldingen

Voor degenen die zich zorgen maken over werknemers die over solide generatieve AI-vaardigheden beschikken, is er één manier om de controle over te nemen: training op de werkvloer.

“Je baan zal niet worden vervangen door AI. Jouw baan zal worden vervangen door iemand anders die AI gebruikt als je dat niet doet”, zegt John Blackmon, hoofd AI-functionaris van de aangepaste trainingsorganisatie ELB Learning, die producten heeft die worden gebruikt door bedrijven als Googlen, MasterCard En GM om hun personeel bij te scholen.

Het verschil tussen vaardigheid en expertise ligt volgens Blackmon in het begrijpen van wat er achter de schermen gebeurt.

Net als de fijne kneepjes van telefoon- of internetcommunicatie, zijn het de programmeurs en ingenieurs die echte experts op het gebied van generatieve AI moeten zijn. Voor de algemene beroepsbevolking is het volgens Blackmon de sleutel om te weten hoe je platforms kunt aanzetten om de output te produceren die je nodig hebt.

“Vragen is de nieuwe manier van spreken”, zei Blackmon. Het zijn organisaties die er een aanzienlijk belang bij hebben dat werknemers zich op hun gemak voelen bij het produceren van generatieve AI-inputs.

Training is essentieel omdat werknemers generatieve AI gaan gebruiken, ongeacht of hun leiders hen in staat stellen dit op een verantwoorde en efficiënte manier te doen. “Elke nieuwe medewerker komt vandaag al opdagen met ChatGPT in zijn achterzak”, zegt Bryan Kirschner, vice-president strategie bij DataStax, een vectordatabaseoplossing voor generatieve AI-toepassingen. “Wat krijgen ze als ze thuis aan hun bureau of op hun externe werkplek gaan zitten?”

Volgens een recent AI-vaardighedenrapport van TalentLMS zal 58% van de HR-managers bijscholings- en omscholingsinitiatieven gebruiken om de door AI veroorzaakte vaardighedenkloof te overbruggen. Hier zijn enkele van de belangrijkste concepten in die inspanning.

Kruip, loop en ren dan met AI

‘De weg naar training’, zei Kirschner, ‘is nadenken over kruipen, lopen, rennen. Maar echt snel kruipen.’

Kirschner zei dat geen enkele generatieve AI alleen loopt. Net zoals je geen werknemer zou hebben zonder manager of coach, zou je ook geen generatieve AI hebben zonder copiloot.

Waar werknemers in het begin misschien naïef zijn over het gebruik van generatieve AI, hebben ze het vermogen om door middel van training vindingrijk te worden. Kirschner zei dat het belangrijk is dat werknemers op een plek komen waar ze “een standpunt hebben” en creatief kunnen zijn in het nadenken over hoe ze generatieve AI-use cases kunnen toepassen op de behoeften van de klant.

Kirschners team bij DataStax produceerde een AI-volwassenheidsmodel dat de verfijning van het AI-gebruik van een bedrijf meet. Er zijn vier hoofdlijnen in het model: context, cultuur, architectuur en vertrouwen. Het model bevat een boog die de beste manieren laat zien om generatieve AI te implementeren, vanaf het begin totdat werknemers zich slim voelen.

De context van het volwassenheidsmodel begint bijvoorbeeld met privacy by design en loopt door tot continu leren en realtime aanpassing. Ondertussen begint de cultuurdraad met een waardengedreven organisatie en werkt deze uit naar een variabele beloning die ethische beslissingen en de betrokkenheid van toezichthouders beloont. Voor architectuur zorgen geautomatiseerde codegeneratie en testen voor verfijning. Vertrouwen omvat factoren als interne en externe transparantie.

Adopteer AI op een verantwoorde en langzaam wijze

Blackmon zei dat bijscholing voor generatieve AI vergelijkbaar is met andere soorten training. ‘Je moet duidelijke doelstellingen hebben’, zei hij. “Je moet precies weten wat je probeert te doen. Je moet het publiek kennen waarmee je praat.”

Interne werkgroepen helpen veel bedrijven met het informeren van goedgekeurde generatieve AI-gebruiksscenario’s en helpen werknemers op verantwoorde wijze door het proces van training en adoptie te navigeren. Meestal zullen belanghebbenden uit verschillende hoeken van de organisatie aanwezig zijn om een ​​goed afgeronde aanpak te creëren.

Hasnain Malik, HR-directeur bij Brainchild Communications, zei dat bedrijven een kleine groep gebruikers moeten kiezen en zich moeten richten op een beperkt aantal functionaliteiten. “Breid de proef stapsgewijs uit totdat u er geen probleem mee heeft om deze voor iedereen uit te rollen”, zei Malik.

Softwarebedrijf voor gegevensbeveiliging BigID publiceerde een cursus, How to Accelerate AI Initiatives, waarin werd gedeeld wat organisaties moeten doen om AI op een verantwoorde manier te adopteren, van het besturen van grote taalmodellen om datalekken te voorkomen tot het vermijden van niet-naleving en het verminderen van de risico’s die gepaard gaan met het gebruik van generatieve AI. gebruik. Dit omvat het classificeren van alle gegevens die in een LLM terechtkomen: “Als het rommel is die erin gaat, gaat het ook rommel uit”, zei Blackmon over unieke bedrijfsdatasets.

De BigID-cursus suggereert het instellen van automatische vlaggen voor beleidsschendingen wanneer gevoelige of gereguleerde gegevens op de verkeerde plaats terechtkomen. Deze kunnen bestaand beleid omvatten, maar moeten ook nieuw beleid omvatten dat potentiële risico’s beheert en monitort die specifiek verband houden met generatieve AI (zolang dat beleid niet in tegenspraak is met bestaand beleid).

Carrie Hoffman, partner en arbeidsrechtadvocaat bij Foley & Lardner, zei dat generatief AI-beleid niet in een vacuüm bestaat. “Alles wat je doet vanuit een AI-perspectief moet worden gedaan in combinatie met het garanderen dat we nog steeds aan de regelgeving voldoen”, aldus Hoffman.

Shabbi Khan, octrooigemachtigde bij Foley & Lardner, zei dat er een evenwicht bestaat tussen tolerant zijn en toezicht houden op activiteiten die verband houden met AI. “Als je te streng bent, kunnen werknemers het uiteindelijk op hun persoonlijke apparaten gebruiken”, zegt Khan. Bovendien zorgt een beknopte handleiding met best practices ervoor dat werknemers daadwerkelijk lezen wat u van hen vraagt, bijvoorbeeld door uw werknemers de trainingsmodus uit te schakelen en te vermijden dat vertrouwelijke informatie wordt ingevoerd.

Op de hoede blijven rond AI

Als onderdeel van de training is het van cruciaal belang om alle generatieve AI-gebruikers eraan te herinneren op hun hoede te blijven en de nauwkeurigheid van de resultaten te bevestigen. Hallucinaties, of ogenschijnlijk verzonnen resultaten die niet zijn geverifieerd door de dataset van het model, zijn reëel, ook al zijn ze zeldzaam.

“Naarmate deze modellen steeds beter worden, zijn de hallucinaties moeilijker te detecteren,” zei Khan. “Mensen gaan ervan uit dat de resultaten accuraat zijn, omdat je niet zoveel fouten tegenkomt.”

Dit wordt automatiseringsbias genoemd, waarbij wordt aangenomen dat de machine gelijk heeft, maar het nog steeds net zo belangrijk is om kritisch toezicht te houden.

Kirschner, die al meerdere revoluties deel uitmaakt van het technologiestrategiespel, zei: “In de begindagen van mobiel zeiden we altijd dat het de voordeur van uw bedrijf aan het worden is, en ik denk dat generatieve AI de voordeur van uw bedrijf zal worden. .”

Met dat in gedachten is het alleen maar zinvol om bijscholing te bieden die uw mensen in staat stelt de organisatie kracht bij te zetten in een wereld die er anders uitziet dan gisteren.

Eerlijke gesprekken over AI en het personeelsbestand