Utgångsläget: Opus för allt
När vi först byggde Länksmedjan använde vi Claude Opus, den mest avancerade modellen i Claudes modellfamilj, för samtliga AI-drivna funktioner. Det inkluderade prospekt-kvalificering, mail-personalisering, svarsklassificering, generering av svarsförslag, prisvärdering av betalningsförfrågningar, artikelgenerering, artikelredigering och keyword-förslag.
Logiken var enkel: vi ville ha bästa möjliga kvalitet överallt. Och Opus levererade. Kvaliteten var genomgående hög, personaliserade mail var träffsäkra, svarsklassificeringen var korrekt i de allra flesta fallen, och genererade artiklar höll hög nivå. Problemet var inte kvalitet utan kostnad.
Kostnadsfördelning före optimering
Med åtta aktiva projekt som vardera körde fem till tio prospekteringar per dag, tre till fem outreach-mail per dag, och löpande svarshantering, låg AI-kostnaderna på en nivå som inte var hållbar i längden. Inte för att den var enorm i absoluta tal, utan för att den skalade linjärt med antalet projekt.
Varje nytt projekt ökade kostnaden proportionellt. Med 20 projekt skulle månadskostnaden vara 2,5 gånger högre, och med 50 projekt närmade vi oss en nivå som skulle bli den dominerande driftskostnaden. Vi behövde hitta ett sätt att sänka marginalkostnaden per projekt utan att offra det som gör Länksmedjan effektivt: kvaliteten.
Insikten: inte alla uppgifter kräver Opus
Vi analyserade varje AI-anrop systematiskt och ställde oss en enkel fråga för varje funktion: kräver denna uppgift verkligen den mest kraftfulla modellen? Svaret var tydligt: de flesta uppgifter kräver det inte.
Anledningen är att Opus, Sonnet och Haiku alla tillhör Claude-familjen och delar samma grundläggande förståelse för språk, logik och kontext. Skillnaden ligger framför allt i hur djupt modellen resonerar, hur nyanserade dess formuleringar är, och hur väl den hanterar komplexa instruktioner med flera begränsningar. För enkla, strukturerade uppgifter med tydliga kriterier är skillnaden mellan modellerna ofta försumbar.
Uppgifter som kräver hög kvalitet: artiklar
Artikelgenerering och artikelredigering. Det här är innehåll som publiceras offentligt på andra sajter under vårt namn. Det måste vara välskrivet, välstrukturerat, fritt från grammatiska fel och med naturligt inflätade länkar. Opus levererar markant bättre artiklar än Haiku: längre och mer djupgående texter, bättre disposition och logisk struktur, mer naturliga övergångar mellan stycken, rikare och mer varierat ordförråd, och bättre förmåga att matcha prospektens ton och stil.
Skillnaden är tydlig nog att en redaktör som tar emot en Opus-genererad artikel troligen godkänner den med minimala ändringar, medan en Haiku-genererad artikel ofta kräver omskrivning av flera stycken. Läs mer om varför artikelkvalitet är avgörande i vår guide om gästartiklar.
Uppgifter där Haiku räcker
Alla andra funktioner. Låt oss gå igenom dem en efter en med konkreta observationer.
Prospekt-kvalificering. AI:n ska bedöma om en sajt är relevant för vårt projekt. Det är i grunden en ja-eller-nej-fråga med en kort motivering. Haiku klarar detta med hög precision. Vi mätte kvalificeringsbesluten mot manuell granskning och fann ingen statistiskt signifikant skillnad mot Opus. Haiku identifierar irrelevanta sajter, spam och orelaterat innehåll lika bra som Opus.
Mail-personalisering. Det här överraskade oss mest. Vi förväntade oss att Opus skulle skriva märkbart bättre personaliserade mail, men skillnaden var minimal i praktiken. Svarsfrekvensen var densamma. Haiku producerar personaliserade mail som är naturliga, specifika och effektiva. Den enda nackdelen vi noterade: Haiku tenderar ibland att vara aningen mer generisk i öppningarna, men det löses med mer detaljerade promptinstruktioner snarare än en dyrare modell.
Svarsklassificering. En strukturerad uppgift med tydliga kategorier: positivt, negativt, fråga, betalningskrav, autosvar, bounce, avregistrering. Haiku hanterar detta utmärkt. Vi jämförde 100 klassificeringar mellan Opus och Haiku och fann en precisionsskillnad på under 2 procent, inom felmarginalen.
Prisvärdering. AI:n analyserar ett betalningskrav, slår upp sajtens Domain Rating och trafik via webbsökning, och rekommenderar köp, förhandla eller avböj. Haiku gör detta lika bra som Opus. Uppgiften är tillräckligt strukturerad och faktabaserad för att inte kräva Opus djupare resonemangsförmåga.
Keyword-förslag. Att generera nya sökord baserat på befintliga keywords och projektets nisch. Haiku levererar relevanta, kreativa förslag som matchar Opus nivå för denna specifika uppgift.
Implementering steg för steg
Bytet var tekniskt enkelt, vi ändrade modellnamnet i varje API-anrop. Men vi var noga med att verifiera kvaliteten systematiskt istället för att byta allt på en gång och hoppas på det bästa.
Steg 1: Byt en funktion i taget
Vi började med svarsklassificering, den funktion med lägst risk. Om en klassificering blir fel fångas det vid manuell granskning innan något svar skickas. Vi körde Haiku parallellt med Opus under en vecka och jämförde utfallen. Ingen mätbar skillnad i precision.
Steg 2: Övervaka och jämför kvantitativt
För varje funktion vi bytte loggade vi output och jämförde med en baseline från Opus-perioden. Vi tittade särskilt på klassificeringsprecision jämfört med manuell granskning, svarsfrekvens på personaliserade mail före och efter bytet, kvalitet på svarsförslag mätt i hur ofta de behövde redigeras, och prospekt-kvalificeringsträffsäkerhet jämfört med manuell bedömning.
Steg 3: Behåll Opus där det faktiskt spelar roll
Vi behöll Opus för artikelgenerering och artikelredigering. Kvalitetsskillnaden var tydlig och meningsfull här. En Opus-artikel har bättre flöde, mer naturliga övergångar, djupare resonemang och mer varierat språk. Det är värt extra kostnaden eftersom artiklarna representerar vårt varumärke och publiceras offentligt på andra sajter.
Resultat efter optimering
Daglig AI-kostnad sjönk till en tiondel av den ursprungliga nivån, en besparing på 90 procent. Den återstående kostnaden kommer nästan uteslutande från artikelgenerering med Opus, som sker mer sällan, kanske en till tre artiklar per vecka beroende på hur många prospects som tackar ja.
Månadskostnaden för AI blev så låg att den nu utgör en försumbar del av den totala driftskostnaden. Det som tidigare var den största enskilda kostnadsposten blev den minsta.
Kvalitetseffekt: ingen mätbar försämring
Vi mätte flera kvalitetsindikatorer efter bytet. Svarsfrekvensen låg fortfarande på cirka 12 procent, oförändrad. Klassificeringsprecisionen låg kvar på ungefär 90 procent. Prospekt-kvalificeringsträffsäkerheten var oförändrad. Och artikelkvaliteten var oförändrad eftersom vi behöll Opus för den uppgiften.
Det enda vi noterade var att Haiku ibland behöver tydligare prompts för att undvika generiska formuleringar. Vi lade till mer specifika instruktioner om ton, stil och vad som ska undvikas. Det tog en eftermiddag att justera alla prompts, men resultatet var jämförbart med Opus efter justeringarna.
Fyra principer för AI-kostnadsoptimering
1. Matcha modell med uppgift. Den dyraste modellen är inte alltid den bästa. För strukturerade uppgifter med tydliga kriterier räcker ofta en snabbare, billigare modell. Spara premium-modellen för uppgifter där kvalitetsskillnaden faktiskt syns och spelar roll.
2. Investera i prompts, inte bara modeller. En bra prompt till Haiku ger bättre resultat än en dålig prompt till Opus. Tid spenderad på prompt-optimering betalar sig oavsett vilken modell du använder. Var explicit med ton, stil, format och begränsningar.
3. Mät innan du byter. Ha en kvantitativ baseline från den nuvarande modellen och jämför systematiskt efter bytet. Känslan att det verkar lika bra räcker inte. Mät svarsfrekvens, precision, redaktionsbehov och kvalitetspoäng.
4. Behåll premium där det syns. Artiklar publiceras offentligt och representerar ditt varumärke. Här är det värt att betala för den bästa kvaliteten. Interna processer som klassificering, kvalificering och personalisering syns aldrig utåt för slutanvändaren och kan köras på billigare modeller utan konsekvens.