Hei senior designer, vi søker deg!
Vi søker en senior digital designer til å ta vår grafikksatsing til nye høyder Les mer
Vi i NewsLab oppfordrer alle våre ansatte til å utforske og ta i bruk kunstig intelligens (KI) i sitt arbeid, ettersom dette er den beste måten å forstå hva KI er, og hvordan det best brukes.
For å sikre at dette skjer på en forsvarlig måte, har vi utformet disse retningslinjene for ansvarlig bruk av KI:
Nedenfor utdyper vi hva hvert av punktene innebærer. Alle i NewsLab skal gjøre seg kjent med innholdet i disse punktene. Ettersom KI-landskapet er i stadig og rask endring, vil retningslinjene også bli løpende oppdatert.
Utforsk ny teknologi og nye muligheter med et åpent sinn, vær nysgjerrig og utforskende – men vær varsom og følg de øvrige retningslinjene. Er du i tvil om noe, spør en kollega!
Vi oppfordrer NewsLabs ansatte til å holde seg løpende oppdatert, følge med på utviklingen og la seg inspirere av hvordan andre bruker KI. Vi har interne læringstiltak som faglige frokoster og lignende der vi går nærmere inn på teknologiens muligheter og begrensninger – og det finnes gode og oppdaterte bøker på temaet i biblioteket vårt.
Aldri ta utgangspunkt i at KI-modellen skal gjøre jobben for deg.
Bruk verktøyene heller som en sparringspartner og arbeidsstøtte. Bruk det for eksempel til å foreslå mangler og forbedringer i en tekst, en liste eller en disposisjon som du selv har tenkt ut og skrevet – fremfor å be modellen skrive teksten, listen eller disposisjonen fra scratch.
Smart og riktig bruk av generativ KI i arbeid med tekst kan være for eksempel:
Bruker du generativ KI til å for eksempel generere forslag til innhold, oppsummeringer av møter og så videre, har du ingen garantier for at modellen ikke utelater viktige ting, misforstår viktige poenger eller gir svar med andre feil og mangler.
Dette får du ingen advarsler om, og det kan være lett å overse hva som er glemt eller misforstått hvis du ukritisk jobber videre fra innholdet som er generert av modellen. Hvis en KI-tjeneste gir deg ti punkter, må du huske at det viktigste kanskje ville ligget i det ellevte.
Modeller som GPT-4 er dessuten trent opp gjennom å gjøre seg kjent med tekst fra internett, som i overveiende grad er – for å si det enkelt – vestlig, hvitt og engelskspråklig. Hvis vi brukte modeller som var trent på andre språk og kulturer, ville vi kanskje fått helt andre svar.
Husk også: Modellen kan heller aldri komme opp med noe nytt og originalt som ikke finnes i dataene den er trent på eller prompten du gir den.
Du kan ikke stole blindt på svar eller resultater som blir KI-generert – det kan like gjerne være fri fantasi som fakta. Gjør derfor alltid egen research, og ettergå selv kilder.
Tekst du får fra en KI-modell bør i prinsippet anses som tilfeldig og ukritisk. Språkmodeller som GPT-4 er laget for å mestre språk, ikke fakta. De kan presentere usannheter som sannheter, fullstendig uten merking og advarsel. Noen velger å kalle KI-modellene for «bullshit-generatorer» og «glorifisert autocomplete» (ikke helt ufortjent).
Tenk på teksten som genereres av KI-modellene som en slags «godt & blandet» av alt modellen er trent på – som like gjerne kan være tenåringer på Reddit som anerkjente akademikere.
Bruk KI til å forenkle og forbedre arbeidet med redigering av tekst, bilde og video, fremfor generering av tekst, bilde og video.
Om du likevel genererer tekst, skal dette alltid bearbeides av et menneske. Ikke bare fordi teksten kan inneholde feil, men også fordi KI-generert tekst (enn så lenge) ofte er mer generisk og kjedelig enn det du klarer å skrive selv.
Dersom vi vil bruke og dele tekst, bilder eller video som er direkte KI-generert, skal dette tydelig merkes, henholdsvis i en disclaimer/faktaboks, bildetekster og/eller tekstplakat/supring. Som hovedregel må du også få slik publisering godkjent av kunderådgiver.
Fotorealistiske bilder og videoer har en iboende troverdighet som vi i NewsLab ikke skal rokke ved. Som hovedregel skal vi derfor ikke bruke KI-verktøy til å manipulere innhold i bilder eller videoer (utover vanlig redigering/retusj), eller bruke KI til å generere innhold som kan forveksles med ekte foto eller video.
Der dette likevel og unntaksvis gjøres som bevisste grep (for eksempel ved omtale av KI-teknologi eller problemstillinger tilknyttet denne) skal det tydelig merkes i tråd med punktet over.
Bruk av KI-genererte illustrasjoner kan ellers brukes (og merkes), men skal på forhånd avklares og godkjennes av kunderådgiver. Husk også at mye fortsatt er uavklart rundt rettigheter og opphavsrett til KI-genererte bilder og illustrasjoner, så det kan være smart å bruke disse med varsomhet.
Gi aldri personopplysninger, bedriftshemmeligheter, passord eller andre sensitive eller konfidensielle data til verktøy som ChatGPT. Vær nøye med å fjerne slike ting før du eventuelt limer inn tekst i en prompt til verktøyene.
Alt du skriver til ChatGPT kan leses og brukes av andre maskiner og mennesker. Dette kan ikke unngås fullstendig, men det kan begrenses gjennom å gå til Settings & Beta → Data controls, og velge bort «Chat history & training». Samtalene vil da slettes fra serverne innen 30 dager.
Ikke bland private og profesjonelle kontoer når du bruker KI-tjenester. Bruk NewsLab sine kontoer og abonnementer på gjeldende KI-verktøy, eventuelt registrer en bruker med din NewsLab-mail etter avtale med en leder.
Utover det som står i disse retningslinjene, må du også undersøke om kunden du jobber for har egne retningslinjer for KI – og sørge for å følge disse i ditt arbeid.
Les også: 9 måter vi bruker kunstig intelligens i arbeidshverdagenLes også: - Kommer kunstig intelligens etter byråjobbene våre nå? (Kampanje.com)Vi søker en senior digital designer til å ta vår grafikksatsing til nye høyder Les mer
Møt oss på Norges viktigste teknologifestival torsdag 20. juni. Les mer
Vi har dokumentert miljøinnsatsen vår – og stått til toppkarakter. Les mer