GitHub Copilot tester Azure Drasi-dokumentation
Resumé
Drasi-teamet byggede en automatiseret workflow til test af dokumentation med GitHub Copilot CLI, Dev Containers, Playwright og GitHub Actions. Ved at behandle AI-agenten som en syntetisk ny bruger kan projektet nu tidligere opdage ødelagte tutorials og afvigelser i dokumentationen, hvilket hjælper med at sikre pålidelig onboarding for udviklere.
Introduktion
Fejl i dokumentation kan være lige så skadelige som kodefejl, især i open source-projekter, hvor getting-started-guiden er en udviklers første oplevelse. I et nyt indlæg forklarede det Azure-understøttede Drasi-team, hvordan det omdannede validering af dokumentation til en automatiseret overvågningsworkflow med GitHub Copilot.
Hvad er nyt
Drasi skabte en AI-drevet testmetode, der simulerer en førstegangsbruger, som følger tutorials præcis som de er skrevet.
Nøgleelementer i løsningen
- GitHub Copilot CLI fungerer som en bogstavelig, naiv agent, der udfører trin præcis som dokumenteret.
- Dev Containers genskaber det samme miljø, som brugere ser i GitHub Codespaces.
- Playwright validerer web-UI-adfærd og tager skærmbilleder til sammenligning.
- GitHub Actions kører workflowet automatisk hver uge og parallelt på tværs af tutorials.
Teamet sagde, at denne tilgang udsprang af en reel fejl: En opdatering af Dev Container-infrastrukturen hævede den minimale Docker-version og ødelagde Drasi-tutorials uden øjeblikkelig synlighed. Manuel test havde ikke opdaget problemet hurtigt nok.
Hvorfor dette er vigtigt for IT-professionelle og udviklere
For Azure- og platformteams er dette et nyttigt eksempel på at anvende AI-agenter ud over kodegenerering. Dokumentation går ofte i stykker på grund af:
- Skjulte antagelser fra erfarne forfattere
- Afvigelser mellem produktændringer og trin i tutorials
- Upstream-afhængighedsændringer i værktøjer som Docker, Kubernetes eller databaser
Ved at bruge Copilot som en “syntetisk bruger” kan teams opdage uklare trin, mislykkede kommandoer og output, der ikke matcher, før kunder eller bidragydere støder på disse problemer.
Sikkerheds- og driftssikkerhedshensyn
Drasis implementering holder sikkerheden fokuseret på containergrænsen i stedet for at forsøge at begrænse hver enkelt kommando individuelt. Workflowet bruger:
- Isolerede flygtige containere
- Begrænsede token-tilladelser
- Ingen udgående netværksadgang ud over localhost
- Godkendelsesporte fra maintainers før eksekvering
For at håndtere AI's ikke-determinisme tilføjede teamet også retries, model escalation, semantisk sammenligning af skærmbilleder og stramme prompt-begrænsninger for at generere et maskinlæsbart bestået/ikke bestået-resultat.
Næste skridt for administratorer og engineering-teams
Hvis dit team publicerer interne runbooks, onboarding-guides eller offentlige tutorials, er dette mønster værd at følge. Overvej at:
- Identificere dokumentation med høj værdi, som ofte går i stykker
- Teste dokumentation i det samme miljø, som jeres brugere faktisk bruger
- Indsamle logs, skærmbilleder og rapporter som artefakter til fejlfinding
- Tilføje planlagt validering til CI/CD-pipelines
Drasi-eksemplet viser, at AI-agenter kan fungere som praktiske testere af dokumentation og hjælpe teams med at reducere supportfriktion og forbedre udvikleroplevelsen i stor skala.
Brug for hjælp med Azure?
Vores eksperter kan hjælpe dig med at implementere og optimere dine Microsoft-løsninger.
Tal med en ekspertHold dig opdateret om Microsoft-teknologier