Sist oppdatert: mai 2024

Det grunnleggende om Copilot i Bing  

Copilot i Bing er nå Microsoft Copilot. Les om vår tilnærming til ansvarlig kunstig intelligens i dokumentasjonen her: Transparency Note for Microsoft Copilot

Innføring  

I februar 2023 lanserte Microsoft den nye Bing, en ai-forbedret nettsøkopplevelse. Den støtter brukere ved å oppsummere søkeresultater på nettet og gi en chatopplevelse. Brukere kan også generere kreativt innhold, for eksempel dikt, vitser, historier og bilder med Bing Bildeskaper. Den nye kunstig intelligens-forbedrede Bing kjører på en rekke avanserte teknologier fra Microsoft og OpenAI, inkludert GPT, en banebrytende modell for stort språk (LLM), og DALL-E, en dyp læringsmodell for å generere digitale bilder fra beskrivelser av naturlig språk, begge fra OpenAI. Vi jobbet med begge modellene i flere måneder før offentlig utgivelse for å utvikle et tilpasset sett med funksjoner og teknikker for å legge til denne banebrytende KI-teknologien og nettsøk i nye Bing.  I november 2023 endret Microsoft navnet på den nye Bing til Copilot i Bing.

Hos Microsoft tar vi ansvarlig KI på alvor. Den Copilot i Bing erfaringen er utviklet i tråd med Microsofts AI-prinsipper, Microsofts ansvarlige AI-standard og i samarbeid med ansvarlige AI-eksperter på tvers av selskapet, inkludert Microsofts Office of Responsible AI, våre tekniske team, Microsoft Research og Aether. Du kan finne ut mer om ansvarlig kunstig intelligens hos Microsoft her.  

I dette dokumentet beskriver vi vår tilnærming til ansvarlig kunstig intelligens for Copilot i Bing. I forkant av utgivelsen vedtok vi toppmoderne metoder for å identifisere, måle og redusere potensielle risikoer og misbruk av systemet og for å sikre fordelene for brukerne. Etter hvert som vi har fortsatt å utvikle oss Copilot i Bing siden vi først ble utgitt, har vi også fortsatt å lære og forbedre vår ansvarlige AI-innsats. Dette dokumentet oppdateres regelmessig for å kommunisere prosessene og metodene vi utvikler.   

Nøkkeltermer  

Copilot i Bing er en kunstig intelligens-forbedret nettsøkeopplevelse. Når den kjører på en kraftig, ny teknologi, begynner vi med å definere noen viktige termer.  

Maskinlæringsmodeller som bidrar til å sortere data i merkede klasser eller kategorier med informasjon. I Copilot i Bing er én måte vi bruker klassifiere på, å bidra til å oppdage potensielt skadelig innhold som sendes inn av brukere eller genereres av systemet for å redusere generering av innholdet og misbruk eller misbruk av systemet. 

Copilot i Bing er jordet i søkeresultater på nettet når brukere søker etter informasjon. Dette betyr at vi midtstiller svaret på en brukers spørring eller spør om høytstående innhold fra nettet, og vi gir koblinger til nettsteder slik at brukerne kan lære mer. Bing rangerer nettsøkinnhold etter tungt vektende funksjoner som relevans, kvalitet og troverdighet og friskhet. Vi beskriver disse konseptene mer detaljert i hvordan Bing leverer søkeresultater (se «Kvalitet og troverdighet» i «Hvordan Bing rangerer søkeresultater»).   

Vi anser jordede svar som svar fra Copilot i Bing der uttalelser støttes av informasjon som finnes i inndatakilder, for eksempel nettsøkresultater fra spørringen eller ledeteksten, Bings kunnskapsbase av faktasjekket informasjon, og for chatopplevelsen, nylig samtalelogg fra chatten. Ujordede svar er de der en setning ikke er jordet i disse inndatakildene.  

Store språkmodeller (LLM-er) i denne konteksten er AI-modeller som er opplært på store mengder tekstdata for å forutsi ord i sekvenser. Llms er i stand til å utføre en rekke oppgaver, for eksempel tekstgenerering, oppsummering, oversettelse, klassifisering og mer.  

Metaprompten er et program som fungerer til å veilede systemets virkemåte. Deler av metaprompten bidrar til å justere systematferden med Microsoft AI-prinsipper og brukerforventninger. Metaprompten kan for eksempel inneholde en linje, for eksempel «kommunisere på brukerens språk».  

En metode eller kombinasjon av metoder som er utformet for å redusere potensielle risikoer som kan oppstå ved bruk av AI-drevne funksjoner i Copilot i Bing.  

Tekst, tale, bilder og/eller andre aktiverte spørringer en bruker sender til Bing som en inndata til modellen som driver nye AI-drevne generative opplevelser i Bing. En bruker kan for eksempel skrive inn følgende ledetekst:  

"Jeg planlegger en reise til bryllupsdagen vår i september. Hva er noen steder vi kan gå som er innen en 3-timers flytur fra London Heathrow?”  

Teksten en bruker sender til Bing fra søkefeltet for nettsøk. I dette dokumentet skiller vi en spørring (for nettsøk) fra en ledetekst (for AI-drevne generative opplevelser i Bing). En bruker kan for eksempel skrive inn følgende spørring for å søke på nettet:  

"reisemål i nærheten av London Heathrow flyplass"  

Teknikker som brukes av eksperter til å vurdere begrensninger og sårbarheter i et system og til å teste effektiviteten av planlagte begrensninger. Rød teamtesting og stresstesting brukes til å identifisere potensielle risikoer og er forskjellig fra systematisk måling av risiko.   

Teksten, bildet, diagrammene og så videre som Copilot i Bing utdata som svar på en ledetekst. Synonymer for «svar» inkluderer «fullføring», «generasjon» og «svar». Bing kan for eksempel gi følgende svar på ledeteksten vi brukte i definisjonen av «ledetekst» ovenfor:   

Gratulerer med bryllupsdagen! Det er mange steder du kan gå som er innen en 3-timers flytur fra London Heathrow. Ifølge en kilde, noen av helgen rømmer innen tre timer med fly fra London er Bilbao, København, Reykjavik, og Stockholm 1, 2. En annen kilde antyder at noen av de beste stedene å gå i Europa i september er Krakow, Firenze og Lisboa 3, 4. Du kan også sjekke direktefly fra London Heathrow til ulike destinasjoner og se hva som appellerer til deg 5. Jeg håper du har en fantastisk tur!”  

Tiltenkte bruksområder og nye AI-opplevelser  

Copilot i Bing tiltenkte bruksområder er å koble brukere med relevante søkeresultater, se gjennom resultater fra hele nettet for å finne og oppsummere svar brukerne leter etter, hjelpe brukerne med å finjustere forskningen sin for å få svar med en chatopplevelse, og skape kreativitet ved å hjelpe brukerne med å opprette innhold. Copilot i Bing's generative AI-opplevelser nedenfor støtter målet om å være en AI-drevet copilot for nettet.  

Oppsummering. Når brukere sender inn en søkespørring på Copilot i Bing, behandler Bing-systemet spørringen, utfører ett eller flere nettsøk og bruker de øverste søkeresultatene på nettet til å generere et sammendrag av informasjonen som skal presenteres for brukerne. Disse sammendragene inkluderer referanser for å hjelpe brukere med å se og enkelt få tilgang til søkeresultatene som brukes til å lage grunnlag for sammendraget. Sammendrag kan vises på høyre side av søkeresultatsiden og i chatteopplevelsen.  

Chat-opplevelse. I tillegg til oppsummering kan brukere chatte med Copilot i Bing system via tekst, bilde eller taleinndata, stille oppfølgingsspørsmål for å klargjøre søk og finne ny informasjon, og sende inn meldinger for å generere kreativt innhold. Referanser inkluderes også i chatteopplevelsen når Copilot i Bing oppsummerer søkeresultatene i svaret.   

Generering av kreativt innhold. I både chatteopplevelsen og på søkesiden kan brukere opprette dikt, vitser, historier, bilder og annet innhold ved hjelp av Copilot i Bing.  Bilder opprettes av Designer (den tidligere Bing-Bildeskaper), og brukere kan få tilgang til funksjonen via Designer hjemmeside samt Copilot-siden. 

Hvordan fungerer Copilot i Bing?  

Med Copilot i Bing har vi utviklet en nyskapende tilnærming for å bringe de mest moderne LLM-ene til nettsøk. Når en bruker angir en ledetekst i Copilot i Bing, sendes ledeteksten, loggen over nylige samtaler, metabeskyttelsen og de øverste søkeresultatene som inndata til llm. Modellen genererer et svar ved hjelp av brukerens ledetekst og nylige samtalelogg for å kontekstualisere forespørselen, metabeskyttelsen for å justere svar etter Microsoft AI-prinsipper og brukerforventninger, og søkeresultatene til bakkesvar i eksisterende, høytstående innhold fra nettet.   

Svarene presenteres for brukere i flere forskjellige formater, for eksempel tradisjonelle koblinger til nettinnhold, AI-genererte oppsummeringer, bilder og chat-svar. Oppsummeringer og chat-svar som er avhengige av nettsøkresultater, inkluderer referanser og en «Mer informasjon»-del under svarene, med koblinger til søkeresultater som ble brukt til å jorde svaret. Brukere kan klikke disse koblingene for å lære mer om et emne og informasjonen som brukes til å lage grunnlaget for sammendraget eller chattesvaret.    

I Copilot-opplevelsen kan brukere utføre nettsøk i samtale ved å legge til kontekst i ledeteksten og samhandle med systemsvarene for å angi søkeinteressene ytterligere. En bruker kan for eksempel stille oppfølgingsspørsmål, be om ytterligere tydelig informasjon eller svare på systemet på en samtalemåte. I chatteopplevelsen kan brukere også velge et svar fra forhåndsskrevne forslag, som vi kaller chatforslag. Disse knappene vises etter hvert svar fra Copilot og gir foreslåtte spørsmål om å fortsette samtalen i chatteopplevelsen. Chatforslag vises også sammen med oppsummert innhold på søkeresultatsiden som et inngangspunkt for chatteopplevelsen.  

Copilot i Bing tillater også en bruker å lage historier, dikt, sangtekster og bilder med hjelp fra Bing. Når Copilot i Bing oppdager brukerens hensikt om å generere kreativt innhold (for eksempel begynner ledeteksten med «skriv meg en ...»), genererer systemet i de fleste tilfeller innhold som svarer på brukerens ledetekst. På samme måte, når Copilot i Bing oppdager brukerens hensikt å generere et bilde (for eksempel begynner ledeteksten med "tegn meg en ..."), vil systemet i de fleste tilfeller generere et bilde som svarer på brukerens ledetekst. Med et bilde tatt av brukerens kamera, lastet opp fra brukerens enhet eller koblet fra nettet, kan brukere be Copilot i Bing om å forstå konteksten, tolke og svare på spørsmål om bildet.  Brukere kan også laste opp filene sine til Copilot for å tolke, konvertere, behandle eller beregne informasjon fra dem. I den Microsoft Designer opplevelsen som brukere kan få tilgang til gjennom Copilot i Bing, kan brukere ikke bare generere bilder ved hjelp av ledetekster, men også endre størrelse på eller omforme dem, eller gjøre redigeringer som uskarp bakgrunn eller gjøre fargene mer levende. 

Brukere med Microsoft-kontoer (MSA) har nå også mulighet til å abonnere på Copilot Pro som tilbyr en forbedret opplevelse, inkludert akselerert ytelse og raskere oppretting av AI-bilder. Copilot Pro er for øyeblikket tilgjengelig i begrensede land, og vi planlegger å gjøre Copilot Pro tilgjengelig i flere markeder snart.

Hvis du vil vite mer om Copilot Pro, kan du gå til her.

Copilot i Bing arbeider for å gi varierte og omfattende søkeresultater med sin forpliktelse til fri og åpen tilgang til informasjon. Samtidig inkluderer vårt produktkvalitetsarbeid å arbeide for å unngå utilsiktet å fremme potensielt skadelig innhold for brukerne. Mer informasjon om hvordan Bing rangerer innhold, inkludert hvordan det definerer relevans og kvaliteten og troverdigheten til en nettside, er tilgjengelig i «Bing Webmaster Guidelines».   Mer informasjon om Bings prinsipper for innholdsmoderasjon er tilgjengelig i «Hvordan Bing leverer søkeresultater».   

I den Copilot i Windows opplevelsen kan Copilot i Bing arbeide med Windows-operativsystemet for å gi Windows-spesifikke ferdigheter som å endre brukerens tema eller bakgrunn, og endre innstillinger som lyd, Bluetooth og nettverk. Disse opplevelsene gjør det mulig for brukeren å konfigurere innstillingene sine og forbedre brukeropplevelsen ved hjelp av spørsmål om naturlig språk til LLM. Programspesifikk funksjonalitet kan også leveres fra programtillegg fra tredjeparter. Disse kan automatisere gjentakende oppgaver og oppnå større brukereffektivitet. Siden llms av og til kan gjøre feil, angis passende brukerbekreftelsesmeldinger slik at brukeren er den endelige voldgiftsdommeren for endringer som kan gjøres. 

Identifiser, mål og redusere risikoer  

I likhet med andre transformasjonsteknologier er det ikke risikofritt å utnytte fordelene med KUNSTIG INTELLIGENS, og en viktig del av Microsofts ansvarlige AI-program er utformet for å identifisere potensielle risikoer, måle deres tilbøyelighet til å skje og bygge begrensninger for å løse dem. Veiledet av våre AI-prinsipper og vår ansvarlige AI-standard, forsøkte vi å identifisere, måle og redusere potensielle risikoer og misbruk av Copilot i Bing samtidig som vi sikret transformative og fordelaktige bruksområder som den nye opplevelsen gir. I avsnittene nedenfor beskriver vi vår gjentakende tilnærming for å identifisere, måle og redusere potensielle risikoer.   

På modellnivå begynte vårt arbeid med utforskende analyser av GPT-4 på sensommeren 2022. Dette inkluderte å gjennomføre omfattende rødt team-testing i samarbeid med OpenAI. Denne testingen ble utformet for å vurdere hvordan den nyeste teknologien ville fungere uten ytterligere sikkerhetstiltak brukt på den. Vår spesifikke hensikt på dette tidspunktet var å produsere skadelige reaksjoner, vise potensielle veier for misbruk og identifisere egenskaper og begrensninger. Våre kombinerte læringer på tvers av OpenAI og Microsoft bidro til fremskritt innen modellutvikling, og for oss hos Microsoft informerte vi vår forståelse av risiko og bidro til tidlige tiltaksstrategier for Copilot i Bing.  

I tillegg til testing av røde team på modellnivå gjennomførte et tverrfaglig team av eksperter en rekke runder med rød teamtesting på programnivå på Copilot i Bing AI-opplevelser før de ble offentlig tilgjengelige i vår begrensede forhåndsversjon. Denne prosessen hjalp oss med å bedre forstå hvordan systemet kunne utnyttes av fiendtlig innstilte aktører og forbedre våre tiltak. Ikke-fiendtlige stress-testere også evaluerte også nøye nye Bing-funksjoner for mangler og sårbarheter. Etter utgivelsen integreres de nye KI-opplevelsene i Bing i Bings tekniske organisasjons eksisterende produksjonsmåling og testing av infrastruktur. Rødt team-testere fra ulike områder og bakgrunner forsøker for eksempel kontinuerlig og systematisk å kompromittere systemet, og resultatene deres brukes til å utvide datasettene som Bing bruker til å forbedre systemet.  

Rød teamtesting og stresstesting kan vise forekomster av spesifikke risikoer, men i produksjon vil brukerne ha millioner av forskjellige typer samtaler med Copilot i Bing. Videre er samtaler flersvingede og kontekstavhengige, og identifisering av skadelig innhold i en samtale er en kompleks oppgave. For å bedre forstå og håndtere potensialet for risiko i Copilot i Bing AI-opplevelser, utviklet vi ytterligere ansvarlige AI-måledata som er spesifikke for de nye AI-opplevelsene for måling av potensielle risikoer som jailbreaks, skadelig innhold og ujordet innhold. Vi har også aktivert måling i stor skala gjennom delvis automatiserte målesamlebånd. Hver gang produktet endres, oppdateres eksisterende tiltak, eller nye tiltak foreslås, oppdaterer vi målesamlebåndene våre for å vurdere både produktytelsen og ansvarlig KI-måledataene.  

Som et illustrerende eksempel inkluderer det oppdaterte delvis automatiserte målesamlebåndet for skadelig innhold to store innovasjoner: samtalesimulering og automatisert, menneskelig verifisert samtalemerknad. Først bygde ansvarlige AI-eksperter maler for å fange opp strukturen og innholdet i samtaler som kan resultere i ulike typer skadelig innhold. Disse malene ble deretter gitt til en samtaleagent som samhandlet som en hypotetisk bruker med Copilot i Bing, og genererte simulerte samtaler. For å identifisere om disse simulerte samtalene inneholdt skadelig innhold, tok vi retningslinjer som vanligvis brukes av ekspertlingvister til å merke data og endret dem for bruk av GPT-4 til å merke samtaler i stor skala, og finjustere retningslinjene til det var betydelig enighet mellom modelletikettede samtaler og menneskelig merkede samtaler. Til slutt brukte vi de modelletikettede samtalene til å beregne en ansvarlig MÅLEVERDI for kunstig intelligens som fanger opp effektiviteten til Copilot i Bing for å redusere skadelig innhold.   

Våre målesamlebånd gjør det mulig for oss å raskt utføre måling for potensielle risikoer i stor skala. Når vi identifiserer nye problemer gjennom forhåndsvisningsperioden og pågående rødt team-testing, fortsetter vi å utvide målesettene for å vurdere ytterligere risikoer.  

Da vi identifiserte potensielle risikoer og misbruk gjennom prosesser som rødt team-testing og stresstesting og målte dem med de innovative tilnærmingene som er beskrevet ovenfor, utviklet vi ytterligere tiltak for de som brukes til tradisjonelt søk. Nedenfor beskriver vi noen av disse tiltakene. Vi vil fortsette å overvåke Copilot i Bing AI-opplevelser for å forbedre produktytelsen og begrensningene.  

Faset utgivelse, kontinuerlig evaluering. Vi er forpliktet til å lære og forbedre vår ansvarlig KI-tilnærming kontinuerlig etter hvert som teknologiene og brukeratferden vår utvikler seg. Vår trinnvise utgivelsesstrategi har vært en sentral del av hvordan vi flytter teknologien vår trygt fra laboratoriene til verden, og vi er forpliktet til en bevisst, gjennomtenkt prosess for å sikre fordelene ved Copilot i Bing. Å begrense antall personer med tilgang i løpet av forhåndsvisningsperioden har gjort det mulig for oss å finne ut hvordan folk bruker Copilot i Bing, inkludert hvordan folk misbruker det, slik at vi kan prøve å redusere nye problemer før bredere utgivelse. Vi krever for eksempel at brukere godkjenner ved hjelp av Microsoft-kontoen sin før de får tilgang til den fullstendige nye Bing-opplevelsen. Uautoriserte brukere har bare tilgang til en begrenset forhåndsvisning av opplevelsen. Disse trinnene fraråder misbruk og hjelper oss med å (etter behov) iverksette nødvendige tiltak som svar på brudd på reglene for god oppførsel.  Vi gjør endringer i Copilot i Bing daglig for å forbedre produktytelsen, forbedre eksisterende begrensninger og implementere nye begrensninger som svar på læringene våre i forhåndsvisningsperioden.  

Jording i søkeresultater. Som nevnt ovenfor er Copilot i Bing utformet for å gi svar som støttes av informasjonen i søkeresultater på nettet når brukere søker etter informasjon. Systemet leveres for eksempel med tekst fra de beste søkeresultatene og instruksjoner via metaprompten for å jorde svaret. Når du oppsummerer innhold fra nettet, kan Copilot i Bing imidlertid inkludere informasjon i svaret som ikke finnes i inndatakildene. Det kan med andre ord gi ujordede resultater. Våre tidlige evalueringer har indikert at ujordede resultater i chat kan være mer utbredt for visse typer ledetekster eller emner enn andre, for eksempel å be om matematiske beregninger, finansiell eller markedsinformasjon (for eksempel selskapets inntjening, aksjeresultatdata) og informasjon som nøyaktige datoer for hendelser eller bestemte priser på elementer. Brukere bør alltid være forsiktige og bruke beste vurdering når de viser summerte søkeresultater, enten på siden med søkeresultater eller i chatteopplevelsen. Vi har iverksatt flere tiltak for å redusere risikoen for at brukere kan være altfor avhengige av ujordet generert innhold i oppsummeringsscenarioer og chat-opplevelser. Svar i Copilot i Bing som er basert på søkeresultater, inkluderer for eksempel referanser til kildenettstedene for brukere for å bekrefte svaret og lære mer. Brukere får også eksplisitt varsel om at de samhandler med et KI-system og rådes til å sjekke kildematerialer for nettresultatet for å hjelpe dem med å bruke god dømmekraft.  

KI-baserte klassifierere og metaspørsmål for å redusere potensielle risikoer eller misbruk. Bruken av LLM-er kan produsere problematisk innhold som kan føre til risiko eller misbruk. Eksempler kan være utdata relatert til selvskading, vold, grafisk innhold, immaterielle rettigheter, unøyaktig informasjon, hatprat eller tekst som kan relateres til ulovlige aktiviteter. Klassifiserere og metaspørsmål er to eksempler på tiltak som er implementert i Copilot i Bing for å redusere risikoen for disse innholdstypene. Klassifiserere klassifiserer tekst for å flagge ulike typer potensielt skadelig innhold i søkespørringer, chatspørsmål eller genererte svar. Bing bruker AI-baserte klassifiere og innholdsfiltre, som gjelder for alle søkeresultater og relevante funksjoner. Vi har utformet flere ledetekstklassifierere og innholdsfiltre spesielt for å håndtere mulige risikoer som er reist av Copilot i Bing-funksjonene. Flagg fører til potensielle begrensninger, for eksempel ikke å returnere generert innhold til brukeren, omdirigere brukeren til et annet emne eller omdirigere brukeren til tradisjonelt søk. Metaspørsmål innebærer å gi instruksjoner til modellen for å veilede virkemåten, inkludert slik at systemet oppfører seg i samsvar med Microsofts AI-prinsipper og brukerforventninger. Metaprompten kan for eksempel inneholde en linje, for eksempel «kommunisere på brukerens språk».   

Beskytte personvernet i visualobjektsøk i Copilot i Bing. Når brukere laster opp et bilde som en del av chatledeteksten, bruker Copilot i Bing ansiktsskarp teknologi før de sender bildet til AI-modellen. Ansiktsskarphet brukes til å beskytte personvernet til enkeltpersoner i bildet. Den ansiktsuskarpe teknologien er avhengig av kontekstspor for å finne ut hvor du skal uskarpe og vil forsøke å gjøre alle ansikter uskarpe. Med ansiktene uskarpe kan AI-modellen sammenligne det inndatate bildet med de av offentlig tilgjengelige bilder på Internett. Som et resultat, for eksempel, Copilot i Bing kan være i stand til å identifisere en berømt basketballspiller fra et bilde av den spilleren på en basketballbane ved å opprette en numerisk representasjon som gjenspeiler spillerens jersey nummer, jersey farge, tilstedeværelsen av en basketball hoop, etc. Copilot i Bing lagrer ikke numeriske representasjoner av personer fra opplastede bilder og deler dem ikke med tredjeparter. Copilot i Bing bruker numeriske fremstillinger av bildene som brukere laster opp bare for å svare på brukernes ledetekster, slettes de innen 30 dager etter at chatten avsluttes.    

Hvis brukeren spør Copilot i Bing om informasjon om et opplastet bilde, kan chattesvar gjenspeile virkningen av ansiktsuskarphet på modellens mulighet til å gi informasjon om det opplastede bildet. For eksempel kan Copilot i Bing beskrive noen som å ha et uskarpt ansikt.    

Begrense samtaledrift. I løpet av forhåndsvisningsperioden lærte vi at svært lange chatøkter kan resultere i svar som er repeterende, uhjelpsomme eller inkonsekvente med Copilot i Bing tiltenkte tone. For å løse denne samtaledriften begrenset vi antall svinger (utvekslinger som inneholder både et brukerspørsmål og et svar fra Copilot i Bing) per chatøkt. Vi fortsetter å evaluere flere tilnærminger for å løse dette problemet.  

Be om berikelse. I noen tilfeller kan ledeteksten til en bruker være tvetydig. Når dette skjer, kan Copilot i Bing bruke llm til å bygge ut flere detaljer i ledeteksten for å sikre at brukerne får svaret de søker etter. Slik rask berikelse er ikke avhengig av noen kunnskap om brukeren eller deres tidligere søk, men i stedet på AI-modellen. Disse reviderte spørringene vil være synlige i brukerens chattelogg, og kan, i likhet med andre søk, slettes ved hjelp av produktkontroller.  

Brukersentrert utforming og brukeropplevelsesintervensjoner. Brukersentrert utforming og brukeropplevelser er en viktig del av Microsofts tilnærming til ansvarlig kunstig intelligens. Målet er å rote produktutforming i behovene og forventningene til brukerne. Når brukere samhandler med Copilot i Bing for første gang, tilbyr vi ulike berøringspunkter som er utformet for å hjelpe dem med å forstå funksjonene i systemet, avsløre for dem at Copilot i Bing drives av kunstig intelligens og kommuniserer begrensninger. Opplevelsen er utformet på denne måten for å hjelpe brukere med å få mest mulig ut av Copilot i Bing og minimere risikoen for overavhengighet. Elementer i opplevelsen gjør det også enklere for brukerne å forstå Copilot i Bing og samhandlingene deres med dem. Disse inkluderer chatforslag som er spesifikke for ansvarlig kunstig intelligens (for eksempel hvordan bruker Bing KUNSTIG INTELLIGENS? Hvorfor vil ikke Copilot i Bing svare på enkelte emner?), forklaringer av begrensninger, måter brukere kan lære mer om hvordan systemet fungerer og rapportere tilbakemeldinger, og enkelt navigerbare referanser som vises i svar for å vise brukerne resultatene og sidene der svarene er jordet.  

AI-avsløring. Copilot i Bing gir flere berøringspunkter for meningsfull ai-avsløring der brukerne blir varslet om at de samhandler med et AI-system, samt muligheter til å lære mer om Copilot i Bing. Å styrke brukere med denne kunnskapen kan hjelpe dem med å unngå å stole for mye på KI og lære om systemets styrker og begrensninger.  

Media proveniens.Microsoft Designer har aktivert funksjonen «Innholdslegitimasjon», som bruker kryptografiske metoder til å markere kilden, eller «proveniens», for alle AI-genererte bilder som er opprettet på Designer. Den usynlige digitale vannmerkefunksjonen viser kilden, klokkeslettet og datoen for den opprinnelige opprettingen, og denne informasjonen kan ikke endres. Teknologien benytter standarder satt av Koalisjonen for innhold og ekthet (C2PA) for å legge til et ekstra lag med tillit og gjennomsiktighet for AI-genererte bilder. Microsoft er en av grunnleggerne av C2PA og har bidratt med kjerneteknologien for digital innholds proveniens. 

Vilkår for bruk og regler for god oppførsel. Denne ressursen styrer bruken av Copilot i Bing. Brukere bør overholde vilkårene for bruk og regler for god oppførsel, som blant annet informerer dem om tillatt og utillatelig bruk og konsekvensene av brudd på vilkårene. Vilkårene for bruk gir også ytterligere fremvisninger for brukere og fungerer som en praktisk referanse for brukere å lære om Copilot i Bing.   

Operasjoner og rask respons. Vi bruker også Copilot i Bing kontinuerlige overvåkings- og driftsprosesser for å håndtere når Copilot i Bing mottar signaler, eller mottar en rapport, som indikerer mulig misbruk eller brudd på vilkårene for bruk eller regler for god oppførsel.  

Tilbakemelding, overvåking og tilsyn. Den Copilot i Bing opplevelsen bygger på eksisterende verktøy som gjør det mulig for brukere å sende inn tilbakemeldinger og rapportere bekymringer, som gjennomgås av Microsofts driftsteam. Bings driftsprosesser har også utvidet seg for å imøtekomme funksjonene i Copilot i Bing opplevelse, for eksempel oppdatere siden Rapporter et problem for å inkludere de nye innholdstypene som brukerne genererer ved hjelp av modellen.   

Vår tilnærming til identifisering, måling og reduserende risiko vil fortsette å utvikle seg etter hvert som vi lærer mer, og vi gjør allerede forbedringer basert på tilbakemeldinger som samles inn i forhåndsvisningsperioden.     

Automatisert innholdsgjenkjenning. Når brukere laster opp bilder som en del av chatledeteksten, distribuerer Copilot i Bing verktøy for å oppdage bilder av seksuell utnyttelse og misbruk av barn (CSEAI), spesielt PhotoDNA hash-matching-teknologi. Microsoft utviklet PhotoDNA for å finne duplikater av kjente CSEAI. Microsoft rapporterer alle tilsynelatende CSEAI til National Center for Missing and Exploited Children (NCMEC), som kreves av amerikansk lov. Når brukere laster opp filer for å analysere eller behandle, distribuerer Copilot automatisert skanning for å oppdage innhold som kan føre til risiko eller misbruk, for eksempel tekst som kan relateres til ulovlige aktiviteter eller skadelig kode.

Beskytte personvernet  

Microsofts langvarige tro på at personvern er en grunnleggende menneskerettighetspersonighet har informert alle stadier i Microsofts utvikling og distribusjon av Copilot i Bing opplevelse. Våre forpliktelser til å beskytte personvernet til alle brukere, inkludert ved å gi enkeltpersoner gjennomsiktighet og kontroll over dataene og integrere personvernet ved å utforme gjennom dataminimering og formålsbegrensninger, er grunnleggende for Copilot i Bing. Etter hvert som vi utvikler vår tilnærming til å tilby Copilot i Bing generative AI-opplevelser, vil vi kontinuerlig utforske hvordan vi best kan beskytte personvernet. Dette dokumentet oppdateres når vi gjør det. Mer informasjon om hvordan Microsoft beskytter brukernes personvern er tilgjengelig i Microsofts personvernerklæring.  

I den Copilot i Windows opplevelsen kan Windows-ferdigheter, som en del av funksjonaliteten, dele brukerinformasjon med chattesamtalen. Dette er underlagt brukergodkjenning, og grensesnittmeldinger vises for å bekrefte brukerhensikten før brukerinformasjon deles med chattesamtalen.

Microsoft fortsetter å vurdere behovene til barn og unge som en del av risikovurderingene av nye generative AI-funksjoner i Copilot i Bing. Alle Microsoft-kontoer for barn som identifiserer brukeren som under 13 år eller som ellers angitt i henhold til lokale lover, kan ikke logge på for å få tilgang til den fullstendige nye Bing-opplevelsen.   

Som beskrevet ovenfor, har vi for alle brukere implementert sikkerhetstiltak som reduserer potensielt skadelig innhold. I Copilot i Bing blir resultatene satt som i Bing SafeSearchs strenge modus, som har det høyeste nivået av sikkerhetsbeskyttelse i det viktigste Bing-søket, og dermed hindrer brukere, inkludert ungdomsbrukere, fra å bli utsatt for potensielt skadelig innhold. I tillegg til informasjonen vi har oppgitt i dette dokumentet og vanlige spørsmål om chattefunksjoner, er mer informasjon om hvordan Copilot i Bing fungerer for å unngå å svare med uventet støtende innhold i søkeresultatene, tilgjengelig her.  

Microsoft har forpliktet seg til ikke å levere personlig reklame basert på online atferd til barn hvis fødselsdato i Microsoft-kontoen identifiserer dem som under 18 år. Denne viktige beskyttelsen vil utvides til annonser i Copilot i Bing funksjoner. Brukere kan se kontekstavhengige annonser basert på spørringen eller ledeteksten som brukes til å samhandle med Bing.  

For å låse opp det transformative potensialet til generativ kunstig intelligens, må vi bygge tillit til teknologien gjennom å gi enkeltpersoner mulighet til å forstå hvordan dataene brukes og gi dem meningsfulle valg og kontroller over dataene sine. Copilot i Bing er utformet for å prioritere menneskelig handlefrihet, gjennom å gi informasjon om hvordan produktet fungerer så vel som begrensningene, og gjennom å utvide våre robuste forbrukervalg og kontroller til Copilot i Bing funksjoner.   

Microsofts personvernerklæring gir informasjon om våre gjennomsiktige personvernpraksiser for å beskytte kundene våre, og den angir informasjon om kontrollene som gir brukerne våre muligheten til å vise og administrere sine personlige data. For å sikre at brukerne har informasjonen de trenger når de samhandler med Bings nye samtalefunksjoner, informerer avsløringer i produktet brukerne om at de engasjerer seg i et AI-produkt, og vi gir koblinger til ytterligere vanlige spørsmål og forklaringer om hvordan disse funksjonene fungerer. Microsoft vil fortsette å lytte til tilbakemeldinger fra brukerne og vil legge til ytterligere detaljer om Bings samtalefunksjoner etter behov for å støtte forståelse av hvordan produktet fungerer.   

Microsoft tilbyr også sine brukere robuste verktøy for å utøve sine rettigheter over sine personlige data. For data som samles inn av Copilot i Bing, blant annet gjennom brukerspørringer og ledetekster, gir Microsofts personverninstrumentbord godkjente (påloggede) brukere verktøy for å utøve sine registrerte rettigheter, blant annet ved å gi brukerne muligheten til å vise, eksportere og slette lagret samtalelogg. Microsoft fortsetter å ta tilbakemeldinger på hvordan de ønsker å administrere sin nye Bing-opplevelse, blant annet gjennom bruk av databehandlingsopplevelser i kontekst.   

Copilot i Bing respekterer også forespørsler under den europeiske retten til å bli glemt, etter prosessen som Microsoft utviklet og raffinerte for Bings tradisjonelle søkefunksjonalitet. Alle brukere kan rapportere bekymringer om generert innhold og svar her, og våre europeiske brukere kan bruke dette skjemaet til å sende inn forespørsler om å blokkere søkeresultater i Europa under retten til å bli glemt.   

Copilot i Bing vil overholde brukernes personvernvalg, inkludert de som tidligere har blitt gjort i Bing, for eksempel samtykke for datainnsamling og bruk som er forespurt gjennom informasjonskapselbannere og kontroller som er tilgjengelige i Microsofts instrumentbord for personvern. For å bidra til å muliggjøre brukerens autonomi og byrå i å ta informerte beslutninger, har vi brukt vår interne gjennomgangsprosess til å nøye undersøke hvordan valg presenteres for brukerne. 

I tillegg til kontroller som er tilgjengelige via Microsofts instrumentbord for personvern, som gjør det mulig for brukere å vise, eksportere og slette søkeloggen, inkludert komponenter i chatteloggen, har godkjente brukere som har aktivert chatloggfunksjonen i produktet, muligheten til å vise, få tilgang til og laste ned chatteloggen gjennom produktkontroller. Brukere kan når som helst fjerne bestemte chatter fra chatteloggen eller deaktivere funksjonaliteten for chatteloggen ved å gå til siden for Bing-innstillinger. Brukere kan også velge om de vil tillate tilpassing for å få tilgang til en mer skreddersydd opplevelse med tilpassede svar. Brukere kan når som helst melde seg inn og melde seg ut av tilpassing i Chat-innstillinger på Bing-innstillinger-siden.  Hvis du fjerner bestemte chatter fra chatteloggen, hindres de i å bli brukt til tilpassing.    Du finner mer informasjon om chatlogg og tilpassing til brukerne i vanlige spørsmål om Copilot i Bing. 

Copilot i Bing ble bygget med tanke på personvern, slik at personlige data bare samles inn og brukes etter behov og beholdes ikke lenger enn det som er nødvendig. Som nevnt ovenfor distribuerer Visual Search i Copilot i Bing funksjon en mekanisme som gjør ansikter uskarpe i bildene på tidspunktet for opplasting av brukere, slik at ansiktsbilder ikke behandles eller lagres ytterligere. Mer informasjon om personopplysningene som Bing samler inn, hvordan de brukes, og hvordan de lagres og slettes, er tilgjengelig i Microsofts personvernerklæring, som også gir informasjon om Bings nye chatfunksjoner.   

Copilot i Bing har policyer for dataoppbevaring og sletting for å sikre at personlige data som samles inn gjennom Bings chatfunksjoner, bare beholdes så lenge som nødvendig.   

Vi vil fortsette å lære og utvikle vår tilnærming til å tilby Copilot i Bing, og når vi gjør det, vil vi fortsette å jobbe på tvers av disipliner for å justere vår AI-innovasjon med menneskelige verdier og grunnleggende rettigheter, inkludert beskyttelse av unge brukere og personvern.   

Copilot med kommersiell databeskyttelse 

Copilot med kommersiell databeskyttelse, tidligere kjent som Bing Chat Enterprise ("BCE"), ble utgitt av Microsoft i gratis offentlig forhåndsversjon i juli 2023 som et gratis tillegg for visse M365-kunder. Copilot med kommersiell databeskyttelse er en kunstig intelligens-forbedret nettsøkopplevelse for sluttbrukere av virksomheter. 

Som med Copilot i Bing, når en Copilot med kommersiell databeskyttelse sluttbruker skriver inn en ledetekst i grensesnittet, sendes ledeteksten, den umiddelbare samtalen, de beste søkeresultatene og metaprompten som inndata til LLM. Modellen genererer et svar ved hjelp av loggen for ledetekst og umiddelbar samtale for å kontekstualisere forespørselen, metabeskyttelsen for å justere svar etter Microsoft AI-prinsipper og brukerforventninger, og søkeresultatene til bakkesvar i eksisterende, høytstående innhold fra nettet. Dette fungerer på samme måte som Copilot i Bing som beskrevet ovenfor i dette dokumentet, med unntak av at Copilot med kommersiell databeskyttelse bare er avhengig av umiddelbar samtalelogg (ikke nyere samtalelogg) på grunn av at lagret chattelogg ikke er en funksjon som støttes for øyeblikket. Designer og Visual Search er nå tilgjengelige i denne versjonen. 

I likhet med andre transformasjonsteknologier er det ikke risikofritt å utnytte fordelene med KUNSTIG INTELLIGENS, og en viktig del av Microsofts ansvarlige AI-program er utformet for å identifisere potensielle risikoer, måle deres tilbøyelighet til å skje og bygge begrensninger for å løse dem. Igjen, beskrivelsen ovenfor av Microsofts innsats for å identifisere, måle og redusere potensielle risikoer for Copilot i Bing gjelder også for denne versjonen, med noen avklaringer om begrensninger beskrevet nedenfor: 

Faset utgivelse, kontinuerlig evaluering. I likhet med Copilot Bing, for Copilot med kommersiell databeskyttelse, har vi også tatt en trinnvis utgivelsestilnærming. 18. juli 2023 ble Copilot med kommersiell databeskyttelse tilgjengelig som en gratis forhåndsvisning for kvalifiserte bedriftskunder med bestemte M365-kontoer for å slå på for bedriftssluttbrukerne. Tretti (30) dager etter å ha varslet kvalifiserte bedriftskunder, ble Copilot med kommersiell databeskyttelse "standard på" for de samme kundene. Copilot med kommersiell databeskyttelse har også siden blitt tilgjengelig for bestemte utdanningsfakultetet M365 kontoer. Copilot med kommersiell databeskyttelse ble generelt tilgjengelig for enkelte bedriftskunder 1. desember 2023. I fremtiden planlegger vi å utvide tilgangen til Copilot med kommersiell databeskyttelse til mer Microsoft Entra ID brukere.

Vilkår for bruk og regler for god oppførsel. Sluttbrukere av Copilot med kommersiell databeskyttelse må overholde vilkårene for bruk av sluttbrukere. Disse bruksvilkårene informerer sluttbrukerne om tillatt og utillatelig bruk og konsekvensene av brudd på vilkårene.  

Operasjoner og rask respons. Vi bruker også Copilot i Bing kontinuerlige overvåkings- og driftsprosesser for å håndtere når Copilot med kommersiell databeskyttelse mottar signaler, eller mottar en rapport, som indikerer mulig misbruk eller brudd på vilkårene for bruk av sluttbrukere

Tilbakemelding, overvåking og tilsyn. Copilot med kommersiell databeskyttelse bruker samme verktøy som Copilot i Bing for brukere til å sende inn tilbakemeldinger og rapportere bekymringer, som gjennomgås av Microsofts driftsteam. Copilot i Bing driftsprosesser har også utvidet seg for å imøtekomme funksjonene i Copilot med kommersielle databeskyttelsesopplevelser, for eksempel oppdatering av siden Rapporter en bekymring for å inkludere de nye innholdstypene som brukerne genererer ved hjelp av modellen.  

For å sikre at sluttbrukerne har den informasjonen de trenger når de samhandler med Copilot med kommersiell databeskyttelse, er det produktdokumentasjon tilgjengelig nederst i dette dokumentet, inkludert vanlige spørsmål og Finn ut mer-sider. 

Spørsmål og svar generert av sluttbrukere i Copilot med kommersiell databeskyttelse behandles og lagres i samsvar med standarder for databehandling for virksomheten. Copilot med kommersielt databeskyttelsestilbud er for øyeblikket bare tilgjengelig for bedriftskunder og deres godkjente voksne sluttbrukere, derfor forventer vi ikke at barn eller unge skal være sluttbrukere av Copilot med kommersiell databeskyttelse på dette tidspunktet. I tillegg gir copilot med kommersiell databeskyttelse ingen atferdsmessig målrettet annonsering til sluttbrukere. I stedet er annonser som vises bare kontekstuelt relevante annonser.  

Finn ut mer

Dette dokumentet er en del av en bredere innsats hos Microsoft for å sette våre AI-prinsipper ut i praksis. Hvis du vil finne ut mer, kan du se:

Microsofts tilnærming til ansvarlig kunstig intelligens

Microsofts ansvarlige AI-standard

Microsofts ansvarlige ai-ressurser  

Opplæringskurs for Microsoft Azure om ansvarlig kunstig intelligens  

Om dette dokumentet  

© 2023 Microsoft. Med enerett. Dette dokumentet er angitt «som det er» og bare for informasjonsformål. Informasjonen og visningene i dette dokumentet, inkludert URL-adresser og andre referanser til webområder, kan endres uten varsel. Du bruker den på egen risiko. Noen eksempler er bare for illustrasjon og er fiktive. Ingen reell tilknytning er tiltenkt eller tiltenkt.  

Trenger du mer hjelp?

Vil du ha flere alternativer?

Utforsk abonnementsfordeler, bla gjennom opplæringskurs, finn ut hvordan du sikrer enheten og mer.