AI förändrar programvarutestningen i en takt som de flesta organisationer aldrig tidigare har upplevt. Team som tidigare ägnade dagar åt att utforma testfall kan nu generera hundratals på bara några timmar. Eftersläpningarna minskar. Täckningsrapporterna ser imponerande ut. Intressenterna är nöjda.

Men här är den obekväma frågan som ASTQB:s ordförande Andrew Pollner ställde vid en branschkonferens nyligen: Förbättrar AI verkligen programvarukvaliteten, eller får det bara att framstå så?

Denna artikel bygger på en artikel hos ASTQB, American Software Testing Qualifications Board, som är USA:s motsvarighet till SSTB

Svaret, som stöds av verkliga data från organisationer som redan använder AI-testverktyg, är mer nyanserat än vad hypen antyder. Svaret är: Ja, AI ökar hastigheten. Men det tillför ingen inneboende kvalitet. Utan kvalficerade mänskliga testare i processen kan klyftan mellan dessa två leda till programvara som levereras med betydande, oupptäckta fel.

De två vägarna som varje testteam står inför

När organisationer inför generativ AI för testning går de vanligtvis i en av två riktningar.

Skillnaden mellan dessa två vägar är inte AI-verktyget. Det är människorna som använder det, den utbildning de har och den disciplin de tillför arbetet.

Vad AI ofta missar

För att förstå varför mänsklig övervakning är viktig måste man förstå var AI-genererade testartefakter konsekvent brister. Det finns flera väl dokumenterade felmönster.

Happy Path-bias. AI-verktyg tenderar att överrepresentera idealiska användarresor. Testerna följer det förväntade flödet, det framgångsrika resultatet – det perfekta scenariot. Det som blir underrepresenterat eller helt missas är gränsvillkor, negativa tester och de gränsfall där programvara oftast misslyckas i den verkliga världen.

Falsk trygghet genom volym. Ett stort antal testfall skapar en psykologisk illusion av fullständig täckning. Organisationer ser 500 tester där de tidigare hade 50 och antar att de nu är tio gånger bättre skyddade. I verkligheten kommer 500 tester som alla testar samma ”happy path” till att leda till att samma kritiska risker förblir otestade. Kvantitet är inte detsamma som kvalitet.

Saknade gränsvillkor. Gränsvärdesanalys (BVA) är en av de mest tillförlitliga teknikerna för att hitta fel. Programvara misslyckas vid gränserna för acceptabla ingångsvärden – precis innanför, vid och precis utanför gränsvillkoren – betydligt oftare än mitt i ett intervall. AI genererar ofta tester som riktar sig mot godtyckliga värden i mitten av intervallet och hoppar över gränserna helt, vilket lämnar några av de mest felbenägna områdena i ett system otestade.

Ofullständig täckning av tillståndsövergångar. Komplex programvara rör sig genom olika tillstånd baserat på händelser och villkor. En betalning som går från initierad till godkänd till avslutad, eller en användarsession som går från aktiv till timeout till återautentiserad, innebär övergångar som kan misslyckas på icke uppenbara sätt. Testning av tillståndsövergångar säkerställer att systemet rör sig korrekt genom alla dessa övergångar. AI-genererade testsviter  adresserar ofta de mest uppenbara vägarna och lämnar gränsfall i tillståndsövergångar otäckta.

Täckning av ekvivalensklassindelning. Att testa varje möjligt indata är inte bara ineffektivt – det är omöjligt. Ekvivalensklassindelning (EP) hanterar detta genom att identifiera klasser av indata som systemet bör hantera på samma sätt, och sedan testa ett representativt urval från varje klass. Denna teknik är särskilt viktig för AI-system, som ofta har ett stort spektrum av indata. Utan den kan AI-genererade tester täcka ett enormt område samtidigt som hela kategorier av beteenden fortfarande saknas.

Icke-funktionella risker. Säkerhetsbrister, prestandaförsämring under belastning och tillgänglighetsfel förekommer sällan i AI-genererade testsviter om inte en erfaren testare uttryckligen efterfrågar dem. Dessa risker syns inte i användarberättelser eller acceptanskriterier – det krävs expertis för att identifiera dem och designa tester för dem.

Att bygga ett ramverk för kvalitetsteknik som faktiskt fungerar

Motgiftet mot dessa felmönster är inte att överge AI. Det är att bygga ett ramverk för kvalitetsteknik som använder AI strategiskt, med mänsklig expertis inbäddad vid varje kritisk punkt.

Det ramverket har fyra komponenter. För det första, kompetensutveckling – testare som är utbildade i testdesigntekniker och AI-promptning. För det andra, granskningsstandarder – definierade kriterier för att utvärdera AI-genererade artefakter innan de kommer in i en testserie. För det tredje, kvalitetsmått, mätning av effektiviteten i felupptäckt, inte bara testfallens volym. Och för det fjärde, styrning, tydliga riktlinjer om hur AI-verktyg används, vem som granskar resultatet och hur beslut om täckning fattas.

Den röda tråden genom alla fyra komponenterna är mänsklig expertis. Inte för att bromsa AI, utan för att styra den mot det som är viktigt: luckor, risker, spårbarhet och de typer av fel som kostar mest att upptäcka sent.

Hur ISTQB-certifieringar bygger upp den expertisen

Det är här de ISTQB-certifieringar som finns hos SSTB blir direkt relevanta för varje organisation som navigerar genom övergången till AI-testning.

ISTQB Testing with Generative AI Certification har utvecklats just  för detta. Den förbereder testare på att förstå AI- och ML-koncept, trender och hur testare kan påverka modellkvaliteten. Den tar upp de specifika utmaningar som AI medför, såsom partiskhet, etik, icke-determinism och förklarbarhet, och lär ut praktiska promttekniker i testarbetet . Framför allt förbereder den testare att identifiera risker och bidra till teststrategier för generativ AI inom sina organisationer. Detta är grunden för den strategiska vägen.

ISTQB AI Testing Certification fokuserar på själva AI:n som det system som testas, vilket är en helt annan utmaning än att testa konventionell programvara. Eftersom AI-system är icke-deterministiska och deras beteende formas lika mycket av data som av kod, lär sig certifierade testare att dedigna tester skräddarsydda för maskininlärningsmodeller, validera träningsdata för partiskhet, brus och obalans, tillämpa relevanta mått som precision och igenkännande, samt övervaka AI-modellens avvikelse och prestandaförsämring. För organisationer som bygger eller implementerar AI-baserade system ger denna certifiering testare som förstår vad det innebär när en AI misslyckas och hur man designar tester som upptäcker detta.

ISTQB Advanced Level Test Analyst Certification förser testare med exakt de tekniker som AI saknar på egen hand. Riskbaserad testning, gränsvärdesanalys, tillståndsövergångstestning, ekvivalensklassindelning – detta är inte bara teoretiska ramverk. Det är praktiska färdigheter som utbildade testanalytiker använder för att hitta de fel som AI-genererade tester lämnar kvar. Denna certifiering täcker även funktionell och icke-funktionell testning, verktyg, testdatastrategi och felförebyggande – vilket bygger den typ av komplett teknisk grund som gör AI till en verklig accelerator snarare än en belastning.

ISTQB Advanced Level Test Management Certification bygger det organisatoriska lagret ovanpå. Testchefer som är certifierade på denna nivå kan planera, hantera och övervaka testning över projekt och utvecklingscykler. De kan definiera teststrategier, tillämpa riskbaserade arbetssätt, rapportera framsteg till intressenter och driva kontinuerlig förbättring av testprocesser. I en AI-förstärkt testmiljö är det denna ledningsförmåga som säkerställer att det strategiska arbetssättet förblir strategiskt – att styrningspolicyer efterlevs, att beslut om täckning är medvetna och att teamets användning av AI kan skalas utan att kvaliteten försämras

Vad du behöver veta och göra

AI har gjort testningen snabbare. Det råder det ingen tvekan om. Den fråga som varje testledare bör ställa sig just nu är om snabbare faktiskt innebär bättre programvarukvalitet – eller om det skapar en allt mer övertygande illusion av det.

Hastighet är mätbar. Kvalitetspåverkan är svårare att bevisa. Utan testare som förstår hur man utvärderar de artefakter som AI genererar, hur man fyller de luckor som den säkert lämnar efter sig och hur man anpassar täckningen till verkliga risker, gör organisationer en tyst kompromiss: de byter expertis mot hastighet och kallar det framsteg.

SSTB erbjuder hela utbudet av ISTQB-certifieringar, inklusive AI Testing, Testing with Generative AI, Advanced Level Test Analyst och Advanced Level Test Management, för att hjälpa yrkesverksamma inom programvarukvalitet och de organisationer de arbetar för att välja den strategiska vägen. Målet har aldrig varit fler tester. Det har alltid varit bättre programvara.