Ethische richtlijnen voor onderzoek naar sociale media met kwetsbare groepen

We erkennen dat identificeerbare sociale media-gegevens van gemarginaliseerde populaties kunnen worden gebruikt om gemeenschappen van kleur te criminaliseren en op te sluiten. We erkennen ook dat de gegevens die we verzamelen en methoden schadelijk kunnen zijn als ze onjuist worden gebruikt of in verkeerde handen vallen. Als zodanig heeft het SAFElab een aantal ethische richtlijnen ontwikkeld die ons onderzoeksproces, samenwerking met data science en verspreidingsinspanningen beschrijven. De aard van ons werk vereist proactieve, iteratieve en steeds veranderende ethische overwegingen om mogelijke schade te voorkomen die kan worden toegebracht aan gemeenschappen waarmee we werken en waarvan onze gegevens afkomstig zijn. De volgende ethische richtlijnen zijn een eerste stap in het aangaan van de uitdagingen die voortvloeien uit ons werk op sociale media, waaronder het gebruik van kunstmatige intelligentie als een hulpmiddel voor geweldpreventie in gemarginaliseerde gemeenschappen.

Transparantie

  • Prioriteren van een lijst van gemeenschapsbehoeften rond geweldpreventie, deze lijst bijwerken als nieuwe behoeften zichtbaar worden
  • Beschrijft ons gegevensverzamel- en analyseproces en de manieren waarop de gegevens worden gebruikt en toegepast
  • Het bijeenroepen van een adviesraad van deskundigen op het gebied, werknemers voor geweldpreventie en leden van de gemeenschap (inclusief voorheen bende-betrokken jongeren) (maandelijkse vergaderingen)
  • Communautaire validatie en evaluatie van de beslissingen rond onze gegevensanalyse en etikettering

Gegevensverzameling

  • Institutional Review Board (IRB) goedkeuring voor al onze onderzoeksstudies. Omdat de IRB openbare sociale media-gegevens als vrijgesteld beschouwt, moeten we echter andere manieren van verantwoording vinden
  • De sociale mediagegevens waarmee we werken, zijn afkomstig van moeilijk bereikbare populaties, waardoor toestemming niet alleen moeilijk te verkrijgen is, maar ook onredelijk om te verwachten. We werken aan andere manieren om de jongeren te beschermen die bij onze studies betrokken zijn:
  • Communautaire toestemming
  • Gezinslid toestemming

Gegevens analyse

  • Met een wachtwoord beveiligd annotatiesysteem
  • Niemand buiten ons onderzoeksteam heeft toegang tot de gegevens
  • We overwegen om al onze data-annotators een Memorandum of Understanding (MOU) te laten ondertekenen over het belang om de gegevens met niemand te delen
  • Wekelijkse gesprekken over de ethiek van ons werk. We komen herhaaldelijk terug op ons werk en creëren ruimte voor iedereen in het team om ethische kwesties aan de orde te stellen en om problemen aan te pakken die zijn aangehaald door mensen buiten ons onderzoeksteam, inclusief organisatiepartners en leden van de gemeenschap

Gegevens delen

  • We delen momenteel geen van onze datasets met wetshandhavingsinstanties of iemand die straf- en criminaliseringsmethoden gebruikt. We zullen deze praktijken blijven evalueren met onze communitypartners

Onderzoekspresentaties en publiceerbaar werk

  • Tekst Social Media Data:
  • Geen gebruikersnamen meer gebruiken
  • De tekst van het bericht op de sociale media wijzigen om het onzoekbaar te maken
  • Proactief verwijderen van posts op sociale media en gebruikers uit onze dataset die privé zijn geworden of zijn verwijderd / geschorst van een bepaald platform
  • Gegevens sociale media-afbeelding:
  • Geen gebruikersnamen
  • Geen foto's van gezichten
  • Afbeeldingen uit onze dataset in publiceerbaar werk
  • Geen afbeeldingen uit onze dataset
  • Als voorbeeld gebruiken we soortgelijke Creative Commons-afbeeldingen in ons publiceerbare werk
  • Geef een met een wachtwoord beveiligde URL aan reviewers met geanonimiseerde voorbeelden van posts op sociale media en posts met afbeeldingen uit onze dataset