Sandra Wachter

De Wikipedia, la enciclopedia libre
Sandra Wachter
Información personal
Nacimiento Austria Ver y modificar los datos en Wikidata
Nacionalidad Austríaca
Educación
Educada en
Información profesional
Ocupación Abogada, roboticista y profesora de universidad Ver y modificar los datos en Wikidata
Empleador
  • Oxford Internet Institute
  • Universidad de Oxford (desde 2022) Ver y modificar los datos en Wikidata

Sandra Wachter es profesora e investigadora sénior en ética de datos, inteligencia artificial, robótica, algoritmos y regulación en el Oxford Internet Institute.[N 1][1]​ Es exmiembro del Instituto Alan Turing .[2]

Primeros años y educación[editar]

Wachter creció en Austria y estudió derecho en la Universidad de Viena.[3]​ Wachter dijo que se inspiró para trabajar en tecnología gracias a su abuela, quien fue una de las primeras mujeres admitidas en la Universidad Técnica de Viena.[4]

Completó su máster en Derecho en 2009, antes de comenzar como asesor legal en el Ministerio Federal de Salud de Austria. Fue durante este tiempo que se unió a la facultad de la Universidad de Viena, buscando un doctorado en tecnología, propiedad intelectual y democracia. Completó su doctorado en 2015 y, simultáneamente, obtuvo una maestría en ciencias sociales en la Universidad de Oxford. Después de obtener su doctorado, Wachter se unió a la Real Academia de Ingeniería (Royal Academy of Engineering - RAEng), donde trabajó en políticas públicas. Regresó a la Universidad de Viena donde trabajó en varios aspectos éticos de la innovación.[5]

Investigación[editar]

Su trabajo cubre cuestiones legales y éticas asociadas con big data, inteligencia artificial, algoritmos y protección de datos.[6][7]​ Ella cree que debe haber un equilibrio entre la innovación técnica y el control personal de la información.[8]​ Wachter se convirtió en investigador en el Instituto Alan Turing en 2016. En esta función, ha evaluado los aspectos éticos y legales de la ciencia de datos. Ha argumentado que la inteligencia artificial debería ser más transparente y responsable, y que las personas tienen "derecho a inferencias razonables".[9][10][11]​ Ha destacado casos en los que los algoritmos opacos se han vuelto racistas y sexistas; como la discriminación en las solicitudes para el Hospital y la Facultad de Medicina de St George en la década de 1970 y las sobreestimaciones de los acusados negros que reinciden cuando utilizan el programa COMPAS.[N 2][9]​ Si bien Wachter aprecia que es difícil eliminar el sesgo de los conjuntos de datos de entrenamiento, cree que es posible desarrollar herramientas para identificarlos y eliminarlos.[9][12]​ Ha buscado formas de auditar la inteligencia artificial para abordar la discriminación y promover la equidad.[3]​ En esta capacidad, ha argumentado que Facebook debería continuar usando moderadores humanos.[13]

Wachter ha argumentado que el Reglamento General de Protección de Datos (GDPR)[14]​ necesita una reforma, ya que a pesar de que se presta atención a la etapa de entrada, se dedica menos tiempo a cómo se evalúan los datos.[15][16]​ Ella cree que la privacidad debe significar más que la protección de datos, centrándose en la evaluación de los mismos y la forma en que las personas controlan cómo se almacena y comparte la información sobre ellos.[15][17]

Trabajando con Brent Mittelstadt y Chris Russell, Wachter sugirió explicaciones contrafactuales: declaraciones de cuán diferente sería el mundo para generar un resultado diferente. Cuando las decisiones se toman mediante un algoritmo, puede ser difícil para las personas entender por qué se toman, especialmente sin revelar secretos comerciales sobre el mismo. Las explicaciones contrafácticas permitirían interrogar a los algoritmos sin necesidad de revelar secretos. Google adoptó el enfoque de utilizar explicaciones hipotéticas en What If, una característica de TensorBoard, una aplicación web de código abierto de Google que utiliza el aprendizaje automático. Counterfactual explanations without opening the black box: automated decisions and the GDPR (Explicaciones contrafactuales sin abrir la caja negra: decisiones automatizadas y el RGPD),[18]​ un artículo escrito por Wachter, Brent Mittelstadt y Chris Russell, ha sido presentado por la prensa[4]​ y es ampliamente citado en la literatura académica.

Servicio académico[editar]

Fue nombrada profesora asociada en la Universidad de Oxford en 2019 y profesora visitante en la Universidad de Harvard desde la primavera de 2020.[3][19]​ Wachter también es miembro del Consejo de Valores, Ética e Innovación del Foro Económico Mundial (World Economic Forum Council on Values, Ethics and Innovation), afiliado al Instituto Bonavero de Derechos Humanos y miembro del Grupo de Expertos en Automóviles Autónomos de la Comisión Europea .[20][21]

Premios y honores[editar]

  • ESRC IAA O²RB Excellence in Impact Awards 2021[22]
  • 2019 The Next Web Most influential people in AI in 2019[23]
  • 2019 Privacy Law Scholars Conference Junior Scholars Award[24]
  • 2019 Business Insider Nordic AI Trailblazer[25]
  • 2019 Business Insider UK Tech 100[26]
  • 2017 CognitionX AI Superhero Award[27]

Notas[editar]

  1. El Oxford Internet Institute (OII) es un departamento multidisciplinario de ciencias sociales e informáticas dedicado al estudio de la información, la comunicación y la tecnología, y forma parte de la División de Ciencias Sociales de la Universidad de Oxford (Social Sciences Division of the University of Oxford), Inglaterra.
  2. Correctional Offender Management Profiling for Alternative Sanctions (Perfiles de gestión de delincuentes Correccionales para sanciones alternativas) es una herramienta digital de gestión de casos y soporte de decisiones desarrollada y propiedad de Northpointe (ahora Equivant) utilizada por los tribunales de EE. UU. para evaluar la probabilidad de que un acusado se convierta en reincidente.

Referencias[editar]

  1. «Sandra Wachter — Oxford Internet Institute». www.oii.ox.ac.uk (en inglés británico). Consultado el 10 de marzo de 2021. 
  2. «Sandra Wachter». The Alan Turing Institute (en inglés estadounidense). Consultado el 10 de marzo de 2019. 
  3. a b c «Sandra Wachter | Harvard Law School» (en inglés). Consultado el 30 de octubre de 2019. 
  4. a b «Sandra Wachter» (en inglés). Consultado el 16 de junio de 2023. 
  5. «Robots: Faithful servants or existential threat?». Create the Future (en inglés británico). 6 de junio de 2016. Archivado desde el original el 30 de octubre de 2019. Consultado el 30 de octubre de 2019. 
  6. «Why it's totally unsurprising that Amazon's recruitment AI was biased against women». nordic.businessinsider.com. 13 de octubre de 2018. Consultado el 10 de marzo de 2019. 
  7. Baraniuk, Chris. «Exclusive: UK police wants AI to stop violent crime before it happens». New Scientist (en inglés estadounidense). Consultado el 10 de marzo de 2019. 
  8. CPDP 2019: Profiling, microtargeting and a right to reasonable algorithmic inferences. (en inglés), consultado el 30 de octubre de 2019 .
  9. a b c Hutson, Matthew (31 de mayo de 2017). «Q&A: Should artificial intelligence be legally required to explain itself?». AAAS (en inglés). Consultado el 30 de octubre de 2019. 
  10. «OII London Lecture: Show Me Your Data and I'll Tell You Who You Are — Oxford Internet Institute». www.oii.ox.ac.uk. Consultado el 30 de octubre de 2019. 
  11. Privacy, identity, and autonomy in the age of big data and AI - Sandra Wachter, University of Oxford (en inglés), consultado el 30 de octubre de 2019 .
  12. «The ethical use of Artificial Intelligence». www.socsci.ox.ac.uk (en inglés británico). Consultado el 19 de octubre de 2021. 
  13. Vincent, James (27 de febrero de 2019). «AI won't relieve the misery of Facebook's human moderators». The Verge (en inglés). Consultado el 30 de octubre de 2019. 
  14. Artificial Intelligence: GDPR and beyond - Dr. Sandra Wachter, University of Oxford (en inglés), consultado el 30 de octubre de 2019 .
  15. a b Shah, Sooraj. «This Lawyer Believes GDPR Is Failing To Protect You - Here's What She Would Change». Forbes (en inglés). Consultado el 10 de marzo de 2019. 
  16. Wachter, Sandra (30 de abril de 2018). «Will our online lives soon become 'private' again?» (en inglés británico). Consultado el 30 de octubre de 2019. 
  17. «Privacy, Identity, & Autonomy in the age of Big Data and AI». TechNative (en inglés). 3 de junio de 2019. Consultado el 30 de octubre de 2019. 
  18. Wachter, Sandra; Mittelstadt, Brent; Russell, Chris (2017). «Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR». SSRN Working Paper Series. Bibcode:2017arXiv171100399W. ISSN 1556-5068. arXiv:1711.00399. doi:10.2139/ssrn.3063289. 
  19. «Professor Sandra Wachter, the OII». www.oii.ox.ac.uk (en inglés británico). Consultado el 30 de octubre de 2019. 
  20. «Sandra Wachter». World Economic Forum. Consultado el 30 de octubre de 2019. 
  21. «Academic Affiliates of the Bonavero Institute of Human Rights». Oxford Law Faculty (en inglés). 25 de enero de 2018. Consultado el 30 de octubre de 2019. 
  22. «ESRC Excellence in Impact 2021 - awards ceremony». Social Sciences, OXford (en inglés británico). 19 de octubre de 2021. 
  23. Greene, Tristan (28 de febrero de 2019). «Here's who has the most juice in Twitter's AI influencer community». The Next Web (en inglés estadounidense). Consultado el 10 de marzo de 2019. 
  24. «PLSC Paper Awards». Berkeley Law (en inglés estadounidense). Consultado el 30 de octubre de 2019. 
  25. Hamilton, Isobel Asher. «3 female AI trailblazers reveal how they beat the odds and overcame sexism to become leaders in their field». Business Insider. Consultado el 30 de octubre de 2019. 
  26. Wood, Mary Hanbury, Isobel Asher Hamilton, Charlie. «UK Tech 100: The 30 most important, interesting, and impactful women shaping British technology in 2019». Business Insider. Consultado el 30 de octubre de 2019. 
  27. «Turing partners with Cog X London 2017 to explore the impact of AI across sectors». The Alan Turing Institute (en inglés). Consultado el 30 de octubre de 2019.