Spørgsmål:
Er det etisk at implementere ansigtsgenkendelsesteknologi på stedet uden at informere alle medarbejdere om det?
RaunakS
2015-10-19 03:07:54 UTC
view on stackexchange narkive permalink

Baggrund◄

Jeg er en meget junior forsker, der arbejder på en statslig forskningsinstitution, der sammen med R&D er vært for mange uddannelseskurser. På grund af tilstedeværelsen af ​​potentielt følsomme data er biometriske og andre sikkerhedsrestriktioner til stede; hvoraf de fleste håndteres af intern it. For nylig har der været pålidelighedsproblemer med vores sikkerhedsløsninger, og indtil nye bud og kontrakter blev lagt ud, blev vi bedt om at brainstorme nogle mellemliggende (helst billige) foranstaltninger. Det skal også bemærkes, at hele campus er under (normalt flere) kameraovervågning til enhver tid.


Problem

Under diskussionen, jeg og en kollega havde opdraget mindre ansigtsgenkendelsesteknologi (FRT) som en langsigtet udsigt. Vi blev spurgt, om der var open source-løsning, og jeg foreslog OpenFace (af Carnegie Mellon University). Ledelsen var meget interesseret og bad IT om at distribuere det på campus som et separat projekt og bruge det som en måde til at spore alle på campus hele tiden. Jeg havde registreret min protest over, at dette var en mulig overtrædelse af privatlivets fred på det tidspunkt, men ingen andre syntes bekymrede.

Senere blev min kollega hver for sig informeret om, at hun og jeg strengt taget ikke skulle informere nogen på campus. Hun fik også at vide at se på implementeringen og give recs om nødvendigt.

Problemet er, jeg tror, ​​at FRT kan være uansvarligt og kan være en krænkelse af privatlivets fred, medmindre det håndteres meget omhyggeligt. Selv OpenFaces readme gør dette meget. Ingen her deler min POV, og jeg er lidt tabt af, hvad jeg skal tænke. Jeg kan bringe det op til højere myndigheder, men jeg er meget, meget junior og vil ikke lave noget rod om noget trivielt. Mit oprindelige forslag havde udelukkende været at implementere FRT, mens jeg kom ind i meget følsomme rum som serverholdere / satellitkontrolcentre osv.


Så er det etisk at implementere en sådan bred ansigtsgenkendelse og muligvis krænke privatlivets fred uden at informere brugerne om det? Hvis ikke, hvad kan jeg gøre ved det?


PS

Jeg er også i Indien, hvis det hjælper. Og jeg ved, at der ikke er strengt juridiske indvendinger.

Bortset fra ethiske etiske problemer synes en lille indledende udrulning yderst rimelig. Det forekommer meget sandsynligt, at uanset "pålidelighedsproblemer", der påvirker de eksisterende biometriske sikkerhedsforanstaltninger, vil påvirke ansigtsgenkendelse. Og det er meget lettere som et praktisk spørgsmål at arbejde igennem de første problemer med en mindre implementering. Det giver dig også mulighed for at vurdere, hvilke fortrolighedskonsekvenser der ville være for en større implementering.
@JustinCave Problemet med biometri var for det meste, at vi havde usædvanligt høje falske negative satser (~ 30%). Det er i det mindste det, jeg fik at vide.
Der er fortrolighedshensyn, og der er _legale_ fortrolighedshensyn. Kodificerer Indien enkeltpersoners ret til privatlivets fred i loven? Hvis spørgsmålet kun ender med at være etisk uden juridiske bekymringer, er det et personligt (dit) etiske dilemma, og du bliver nødt til at træne alene (fortsætter du med at arbejde der).
"Hvis [det ikke er etisk], hvad kan jeg gøre ved det?" Diskussion her synes at fokusere på, om denne specifikke ting er lovlig eller etisk eller ej. Men "hvad kan jeg gøre ved det" -delen af ​​spørgsmålet er sandsynligvis vigtigere for dig. Antag, at du til sidst konkluderer, at det bestemt er uetisk. Desværre kommer dine muligheder i dette tilfælde sandsynligvis ned på enten (1) at finde et nyt job eller (2) skæve øjnene på problemet og overbevise dig selv om, at det er hunky-dory.
At lægge etik til side et øjeblik ... det første spørgsmål bør være, om din organisation har brug for denne type overvågning eller ej. Noget som dette er IKKE et kommercielt hyldesystem, som bare skal tændes og bruges. Det kræver en masse organisatorisk indsats. At gå fra optaget video til ansigtsgenkendelse er et kæmpe stigning i omkostningerne. Brug ikke at spilde tid på at diskutere etik, hvis det ikke engang er nødvendigt.
Bortset fra etik ville jeg risikere, at pålideligheden af ​​ansigtsgenkendelse ville være lavere (i daglig brug, dvs. uden for en laboratorieindstilling), ville være lige så dårlig / værre end dine nuværende foranstaltninger. Så det ville ikke være en praktisk løsning. Jeg forventer en masse falske positive og negative, hvilket betyder, at du ikke kunne stole på, at det var et nyttigt sikkerhedsværktøj.
Fem svar:
mart
2015-10-19 12:38:32 UTC
view on stackexchange narkive permalink

If I understand you correctly, the new thing would be that you build a database of everyones movement across the campus. This is different from having CCTV or guards in place, as previously the data of who is at which place and what time was not aggregated this way before.

Here's the ethical concerns I see:

  • It does not seem to solve the problem: Presumably, the sensitive information is 'present' in some rooms on some machines etc. You need to stop people from getting where they are not supposed to be. Why is knowing that X went from room 1 to room 2 along hallway 3 and taking a bathroom break along the way a solution to your problem

  • Data tends to get used. Even if there are no concrete ideas what to do with all the data on who moves where now, there will be. This needs careful consideration. Maybe they'll skim this data for people who spend 'too much' time smoking or on the toilet. You know more about your campus, give this some thought.

  • They want to keep it secret. Did everyone on the campus consent to have all their movements logged? In all likelhood not, so this is clearly unethical, even if legal.

Tak skal du have! Du har formaliseret mine bekymringer langt bedre, end jeg kunne have.
Kilisi
2015-10-19 03:44:17 UTC
view on stackexchange narkive permalink

I don't see why it would be unethical, people are already on camera, this is just manipulation of existing data. It's benefits in terms of security are easy to identify. I don't see any basic difference than having security personnel watching the camera views which is commonplace in many businesses.

Jeg ser. Min kollega sagde dybest set det samme som dig; mit problem var hovedsageligt at spore folk på campus uden deres tilladelse. Hvis dette, som du siger, er almindeligt, antager jeg, at mine bekymringer er uden fortjeneste.
@RaunakS Campussen tilhører dem. Hvorfor skulle de have brug for tilladelse?
@Frisbee Jeg troede, at ansigtssporing var for påtrængende og moralsk grå, men bestemt ikke ulovlig. Jeg har muligvis forkert med etik.
Jeg tror ikke, det er så skåret og tørret. Jeg vil foreslå at tale med din campus etiske komité, der meget bedre kan besvare dit spørgsmål end Internettet.
@JaneS Vi har ikke et etisk udvalg eller et organ, der ligner et sådant. Vi har fagforeninger; men jeg er meget glad for at nærme mig dem, som de kan være ... ... _politisk_ motiverede.
sandsynligvis bedst ikke at bringe dig selv til fagforeningernes opmærksomhed efter min mening
Som påpeget af mart i et andet svar, er logning af oplysningerne problemet. Antag, at jeg følger dig rundt (uden at fortælle dig det) og laver en logbog overalt, hvor du går. Antag, at jeg holder denne liste og deler den med min chef. Måske er dette ikke ulovligt (vi er alle i et offentligt rum), men det virker bestemt uetisk, hvis jeg ikke har en gyldig grund til at spore dine bevægelser. Med sikkerhedskameraer formodes de rå videodata at være anonyme, indtil en efterforskning startes (f.eks. På grund af en forbrydelse), og optagelserne gennemgås (med eller uden FRT-teknologi).
Jeg kan stadig ikke se forskellen, det er usandsynligt, at de gennemgår alle optagelserne og sporer alle uden grund. Muligvis til statistiske formål, muligvis af sikkerhedsmæssige årsager, men selvfølgelig kan vi postulere ekstremer eller fetisher i den retning, vi vil, tror jeg. Men i virkeligheden ville det være anonymt, indtil nogen havde en grund til at se på det. Bare en anden datamanipulationsmetode.
@Kilisi "Anonym indtil nogen havde en grund til at se på det" løser ikke det etiske spørgsmål. For så vidt som etik går, er det enten etisk at indsamle / have oplysningerne, eller det er det ikke. Antag for eksempel, at jeg har en fortegnelse på min computer, der beskriver klokkeslæt og dato for hvert websted, du har besøgt i den sidste måned. Dette * kan * være etisk (f.eks. Hvis jeg foretager en tilladt undersøgelse med lovlige midler). Men hvis det viser sig, at denne liste er * ikke etisk *, kan jeg ikke undgå det etiske problem ved at sige "rolig, jeg har ikke kigget på listen!"
Folk ignorerer, at implementering af et sådant projekt og produktion af data, der ikke er skrald, vil kræve betydeligt og løbende arbejde langt ud over at have sikkerhedsgutter, der ser skærme. Det vil kræve alvorlige timer fra fagfolk, der ikke er sikkerhed (hvilket åbner det meget ubehagelige budgetproblem med, hvor pengene kommer fra). Hvis vi antager, at organisationen er villig til at smide penge til et projekt som dette, har du et problem med at retfærdiggøre systemet ved at finde brug for det - og det er, når befolkningen vil finde ud af og lukke det ned (i meget usandsynlig tilfælde det kommer forbi forslagets fase).
@Brandin, hvilket er netop det, som mange virksomheder opretter med deres edge firewall. Der er heller ikke besøgt noget uetisk sporingswebsteder, en anden historie, hvis de har et kamera i folks hjem eller sporer deres personlige surfing på private maskiner.
John Hammond
2015-10-19 19:57:51 UTC
view on stackexchange narkive permalink

Whether something is ethical or not is always also based on the culture you are in. As I don't know the culture in India, I can only tell you the culture in Germany.

For a data collection to be ethical, it must follow some core requirements:

  1. Appropriation
    It must be known what the data is used for and what the point of the data collection is. As far as I can tell, this requirement is not fulfilled. How this face tracking data is going to be used and what the purpose is, is unknown.

  2. Reduction
    The data you collect must be limited to the amount that is necessary to fulfill the purpose and there is no data already available somewhere that you can re-use. For example, if there is an incident and the existing camera footage shows the face of the person, why do you need to identify all other persons that have nothing to do with the incident? It would be sufficient to let the face recognition software run on the few seconds of the incident and maybe a few minutes before to identify witnesses. But that's it.

  3. Necessity
    The data you collect and the way you collect it, must be necessary. It must be in proportion to the desired purpose. For example, to measure how much time a student spends on the toilet, you do not need a camera in the stall, although it would work; but there are other less intrusive methods to measure time, so the camera footage is not necessary.

Jeg prøver at skrive mine tanker og indvendinger ned for at appellere til HR, og dine punkter hjælper med at afklare nogle ting. Tak skal du have!
Dawny33
2015-10-19 09:31:08 UTC
view on stackexchange narkive permalink

If the data from the face recognition detectors are sent outside the campus, then the issue needs to be discussed upon. Both with the people inside the campus, the management and the ethics committee of your institute; as the privacy of people is at stake here.

But, if the data remains in-house, and used just for surveillance by the in-house guards, etc; then I don't see any difference between the existing technology and the present one, in terms of privacy intrusion. So, if this is the case, you can go ahead and implement it.

De oprindelige planer er at beholde tilstedeværelses- og bevægelsesdata på lokale servere, medmindre der er noget sikkerhedsmæssigt problem, i hvilket tilfælde al relevant info sendes til hovedkontoret.
Så kan jeg ikke se nogen grund til, at det ikke skal bruges.
Glad for at være til hjælp. Hvis du fandt det nyttigt, bedes du opstemme og acceptere, så det kan hjælpe folk med lignende problemer.
Nelson
2015-10-19 09:57:51 UTC
view on stackexchange narkive permalink

Here's the quote from OpenFace:

We do not support the use of this project in applications that violate privacy and security. We are using this to help cognitively impaired users to sense and understand the world around them.

The issue isn't that the project ITSELF violates people's privacy, but how it is used. You can use camera for perfectly legal and respectable purposes, and obviously NOT legal and invasive purposes.

I believe one way to use it that violates privacy is to use it to scan data on the internet, grab the embarrassing photos of a particular person, and use this data to attack them.

HOWEVER! Your superiors are thinking about something that causes them to tell you not to tell anyone. If their purpose is simply security, why were they unable to provide the arguments presented on SE by complete strangers? We do not have access to what your superiors are thinking, but it may be useful to tread with care and protect yourself from anything illegal. Get written specifications as to what it is for, and get legal sign-off on them. You don't want to position yourself as a scapegoat.



Denne spørgsmål og svar blev automatisk oversat fra det engelske sprog.Det originale indhold er tilgængeligt på stackexchange, som vi takker for den cc by-sa 3.0-licens, den distribueres under.
Loading...