Du benytter en nettleser vi ikke støtter. Se informasjon om nettlesere

Kapittel 2Innledning

Potensialet og forventningene til store språkmodeller i helse- og omsorgstjenesten er høye, samtidig som risikoene er store. Det er avgjørende at KI-systemer med store språkmodeller som brukes i helse- og omsorgstjenesten er tillitsverdige og rapporten har identifisert fem tiltak som vil bidra det.  

Det amerikanske National Institute for Standardization and Technology (NIST) karakteriserer tillitsverdig KI slik: Gyldig og pålitelig, trygg, sikker og motstandsdyktig, ansvarlig og gjennomsiktig, forklarbar og tolkbar, har godt personvern og er rettferdig med kontroll på skadelig skjevheter [4]. Den europeiske unionen publiserte i 2019 etiske retningslinjer hvor det beskrives at et tillitsverdig KI-system har tre komponenter som bør oppfylles gjennom hele systemets livssyklus: (1) det bør være lovlig, i samsvar med alle gjeldende lover og forskrifter, (2) det bør være etisk, og sikre etterlevelse av etiske prinsipper og verdier, og (3) det bør være robust, både fra et teknisk og sosialt perspektiv, da KI-systemer, selv med gode intensjoner, kan forårsake utilsiktet skade [5].

 

 

 

[4] Artificial Intelligence Risk Management Framework (AI RMF 1.0) (nist.gov), side 12 og Trustworthy and Responsible AI | NIST: Characteristics of trustworthy AI systems include: valid and reliable, safe, secure and resilient, accountable and transparent, explainable and interpretable, privacy-enhanced, and fair with harmful bias managed.

[5] European Commission: Directorate-General for Communications Networks, Content and Technology, Ethics guidelines for trustworthy AI, Publications Office, 2019, https://data.europa.eu/doi/10.2759/346720

2.1. Mål

2.2. Målgruppe

2.3. Avgrensninger

2.4. Metode

2.5. Sentrale begreper

Siste faglige endring: 16. april 2025