Kaupr / Blogg / Daniel Sønstevold: Kan vi egentlig stå inne for bruk av AI?

Daniel Sønstevold: Kan vi egentlig stå inne for bruk av AI?

Daniel Sønstevold er M365 Strateg og Generativ AI Evangelist og konsulent i EVIDI.

Daniel Sønstevold er M365 Strateg og Generativ AI Evangelist og konsulent i EVIDI.

Daniel Sønstevold har gjort seg noen tanker omkring sikkerhet, åpenhet, solidaritet, kvalitet og bærekraft i forbindelse med AI, og spør i denne bloggposten: Kan vi egentlig stå inne for bruk av AI? Sønstevold er M365 Strateg og Generativ AI Evangelist og konsulent i EVIDI.

Undertegnede og andre kjemper om å få trykke Copilot og AI inn i ørene på alle som er villig til å lytte. Hvor mye tenker vi på omfanget av å skulle ta i bruk tjenestene?

Prinsipper og kvalitet

Microsoft har sine seks prinsipper for "ansvarlig kunstig intelligens", men prinsippene handler mest om utvikling og implementering, ikke bruk. AI kan hjelpe meg med utkast til prosjektrapporten, blogginnlegget og salgspitchen, men er det greit av meg å bruke det? Jeg mener ja, men det er på tide at vi lager noen kjøreregler.

Mediehusene har allerede begynt, og er tilsynelatende flinke til å informere om saker som er skrevet eller oppsummert av AI, og kun kvalitetssikret av et menneskelig øye.

Microsoft har publisert en egen Copilot Copyright Commitment, så mediesakene om forfattere som mister inntekt på arbeidene sine treffer for min del ikke dette produktet. Temaet interesserer meg allikevel, selv om jeg velger å stole på Microsoft her.

Om hvor lenge blir det et kvalitetsstempel at en tekst er "100% human made", og hvilke type tekster kommer det til å gjelde?

Temaer som bør få fokus

Jeg og flere kollegaer har i alle fall gjort oss noen tanker om temaer som bør få fokus i tiden som kommer. Mine tanker handler om sikkerhet, åpenhet, solidaritet, kvalitet og bærekraft. I første rekke er det viktigste for meg bevissthet rundt temaene, og sammenheng mellom dem.

  • Tenk på hva du putter inn i hvilken AI-tjeneste. Kundenavn, oppdragsdetaljer, prosjektinformasjon og reelle tall, eller en kombinasjon av disse, og lignende, er eksempler på informasjon som ikke skal på avveie. Vit hvilken sikkerhet som ligger i tjenestene du bruker. La vær hvis ikke.
  • Effektivisering handler ikke om å selge noe maskinlaget som om det var håndlaget. La fastfood-burgeren være nettopp det, og vær ærlig om det fremfor å presentere den som gourmet. Er noe som skal brukes eksternt for bedriften skrevet helt eller delvis av AI. Skap en vane med å si noe om hva, hvordan eller hvor mye. Kanskje lag et lite "made by AI"-stempel.
  • Vær bevisst på hvem som står bak tjenesten og hva den er trent på. Kan du stå inne for bruken med dine verdier som grunnlag? Om det brukes i arbeidssammenheng, sørg for at du også har kontroll på bedriftens verdier.
  • Kvalitetssikre alt, ALLTID. AI-tjenester kan skape feilaktig informasjon, også basert på dine egne data. Ikke stol på at det du sender fra deg er "godt nok" før du faktisk er sikker på det.
  • Hva betyr bruken for bærekraftsperspektivet? Det krever enorme mengder energi å trene AI-modellene, men jo flere prompter vi gjør, jo mer ressurser kreves jo selvfølgelig til bruken også. Er det bedre om jeg nøyer meg med konvensjonelle typer søk og hjelp, eller bare tar mot til meg og skriver noe helt fra bunnen i en del tilfeller?

 

Som alltid. Er dette vanskelig å forholde seg til, men du skjønner at du blir nødt til det?

Innholdet i denne gjestebloggen ble første gang publisert som en bloggpost på Daniel Sønstevold sin Linkedin-profil. Kaupr sin bloggspalte er åpen for innlegg, analyser og debatt. Send din artikkel eller artikkelidé til morten@kaupr.io.