Сажи привет my ai, snapchat s skumle ai tabbe minner oss om at chatbots er ikke folk. Men når linjene er uskarpe, vokser risikoen

. Men når linjene er uskarpe, vokser risikoen

. Vi vet kanskje aldri hva som faktisk skjedde; Det kan være nok et eksempel på AI “hallusinatng”, eller resultatet av et nettangrep, eller til og med bare en operativ feil.

Snapchat ai

. .

. .

Как и ват-боты с исттвеннны интелтом, min ai сонен к гаорртттттттттттттттerendeapapapilsynnynn –apynn си все что уодно. ! . .

. . Ester.

Forfatter

Avsløringsuttalelse

Daswin de Silva jobber ikke for, konsulterer, eier aksjer i eller mottar finansiering fra noe selskap eller organisasjon som vil dra nytte av denne artikkelen, og har ikke avslørt noen relevante tilknytninger utover deres faglige avtale.

.

.

. Naturligvis begynte Internett å stille spørsmål ved om den chatgpt-drevne chatbot hadde fått fuktighet.

. .

Fra reglerbaserte til adaptive chatbots

. Selv når jeg utarbeider denne artikkelen om Microsoft Word, antyder programvarens prediktive AI -evne.

.

. .

[…] Bare en virkelig, virkelig god neste ords prediktor.

Avanserte LLM-er er også finjustert med menneskelig tilbakemelding. .

Openais chatgpt er fremdeles flaggskipens generative AI -modell. .

til en bruker i stedet for dem har blitt knyttet til høyere engasjementsnivå. . En annen studie med stressede deltakere fant at en menneskelignende chatbot var mer sannsynlig å bli oppfattet som kompetent, og derfor mer sannsynlig å bidra til å redusere deltakernes stress.

.

.

Dette til tross for Googles egen AI -sikkerhetseksperter som advarer om at brukere kan vokse for avhengige av AI og kan oppleve “redusert helse og velvære” og et “tap av byrå” hvis de tar livsråd fra det.

?

I den nylige Snapchat -hendelsen la selskapet hele saken ned til et “midlertidig strømbrudd”. Vi vet kanskje aldri hva som faktisk skjedde; Det kan være nok et eksempel på AI “hallusinatng”, eller resultatet av et nettangrep, eller til og med bare en operativ feil.

Uansett antyder hastigheten som noen brukere antok at chatbot hadde oppnådd at fette antyder at vi ser en enestående antropomorfisme av AI. .

Vi skal ikke undervurdere hvordan individer kan bli villedet av den tilsynelatende ektheten av menneskelignende chatbots.

Tidligere i år ble en belgisk manns selvmord tilskrevet samtaler han hadde hatt med en chatbot om klima -passivitet og planetens fremtid. I et annet eksempel ble det funnet at en chatbot ved navn Tessa ga skadelige råd til mennesker gjennom en hjelpelinje for spiseforstyrrelser.

Chatbots kan være spesielt skadelig for de mer sårbare blant oss, og spesielt for de med psykologiske forhold.

En ny uhyggelig dal?

Du har kanskje hørt om “Uncanny Valley” -effekten. Det refererer til den urolige følelsen du får når du ser en humanoid robot som ser menneskelig ut, men det er svake ufullkommenheter gir det bort, og det ender med å bli skummel.

Det virker som om det dukker opp en lignende opplevelse i samspillet med menneskelignende chatbots. En svak blip kan heve hårene på baksiden av nakken.

. Men dette ville komme på bekostning av engasjement og innovasjon.

Utdanning og åpenhet er nøkkelen

. Likevel på noen måter (og når det gjelder kommersielle enheter) oppveier fordelene risikoen.

. Det er usannsynlig å gå bort. ?

Siden 2018 har det vært et betydelig press for regjeringer og organisasjoner for å adressere risikoen for AI. Men å anvende ansvarlige standarder og forskrifter på en teknologi som er mer “menneskelig” enn noen annen, kommer med en rekke utfordringer.

. I USA har California introdusert en “botregning” som vil kreve dette, men juridiske eksperter har stukket hull i den – og lovforslaget har ennå ikke blitt håndhevet ved skriving av denne artikkelen.

Dessuten blir chatgpt og lignende chatbots offentliggjort som “forskningsforhåndsvisninger”. Dette betyr at de ofte kommer med flere avsløringer av deres prototypiske natur, og at Onus for ansvarlig bruk faller på brukeren.

. .

  • Uncanny Valley
  • Snapchat
  • Chatbots
  • Chatgpt
  • Kunstig intelligensetikk

?

Jada-Jones

I april laget Snap sin AI-drevne chatbot, min AI, tilgjengelig for Snapchat-brukere. . .

. Men i noen eksperimentelle chatter med bot, fant brukerne at Snapchats bot ville forklare hvordan de kan delta i mindreårig stoffbruk og seksuell aktivitet.

. Da AI -en min ble spurt om den hadde en brukers beliggenhet, ville den omgående nekte å ha tilgang til geolokasjonsdata.

Men hvis en bruker ba om en restaurantanbefaling i deres område, kunne AI -en min gi dem, og bevise at bot har tilgang til Snapchatters ‘beliggenhet. Folk tok til Twitter for å uttrykke at de var bekymret for AI -en min og begynte å bli nysgjerrige på hvilke brukerdata Bot kunne få tilgang til.

?

plassering

. Snap sier at AI ikke samler inn nye stedsdata fra deg og bare henter fra dataene du ga til Snapchat.

. . Snap sier at selv med spøkelsesmodus på, kan min AI få tilgang til din plassering hvis du har gitt stedssporingstillatelse til Snapchat.

Samtaler

. Snap bruker samtalene dine med min AI for å trene AI -modellen og for å bedre målrette deg med personlige annonser.

Snapchats personvernpolicy sier at alle snaps blir slettet fra Snapchat -servere etter at alle mottakere ser dem. . Det skal antas at Snap beholder alle lyd eller bilder du sender til min AI og bare kan slettes hvis du gjør det selv.