Rana el Kaliouby

De Wikipedia, la enciclopedia libre
Rana el Kaliouby

Rana el Kaliouby en 2015.
Información personal
Nacimiento 1978 Ver y modificar los datos en Wikidata
El Cairo (Egipto) Ver y modificar los datos en Wikidata
Nacionalidad egipcia, estadounidense
Lengua materna Árabe egipcio Ver y modificar los datos en Wikidata
Educación
Educada en
Información profesional
Ocupación Informática teórica Ver y modificar los datos en Wikidata
Empleador Affectiva Ver y modificar los datos en Wikidata
Sitio web
Distinciones

Rana el Kaliouby (1978) es una científica y empresaria egipcia-estadounidense en el campo de la investigación del reconocimiento de expresiones y el desarrollo tecnológico, que es un subconjunto de reconocimiento facial diseñado para identificar las emociones expresadas por la cara.[1]​ La investigación de El Kaliouby fue más allá de la dependencia del campo de expresiones exageradas o caricaturescas modeladas por actores de laboratorio, para centrarse en las miradas sutiles encontradas en situaciones reales. Es cofundadora, con Rosalind Picard, y CEO de Affectiva.

Biografía[editar]

El Kaliouby obtuvo una licenciatura y una maestría en ciencias de la Universidad Americana en El Cairo, luego un doctorado en Newnham College de la Universidad de Cambridge.

El Kaliouby trabajó como científico investigador en el Instituto de Tecnología de Massachusetts, ayudando a fundar su Iniciativa de tecnología de comunicación y autismo.[2]​ Su objetivo original era mejorar la interacción humano-computadora, pero rápidamente quedó fascinada con la posibilidad de aplicar esta tecnología para mejorar la comunicación humano-humano, especialmente para las personas autistas, muchas de las cuales luchan con la comunicación emocional.[3]​ En el grupo de Computación afectiva del MIT Media Lab, formó parte de un equipo que fue pionero en el desarrollo del "audífono emocional",[4]​ un conjunto de anteojos portátiles para leer emociones que el New York Times incluyó en sus 100 principales innovaciones de 2006.[5]​ El Kaliouby demuestra su trabajo y es entrevistada en el documental de 2018 sobre inteligencia artificial Do You Trust This Computer?

El Kaliouby ha declarado que las computadoras, si bien son buenas con la información, se quedan cortas cuando se trata de determinar sentimientos, por lo que requieren indicaciones manuales para responder a las necesidades de un operador. Su trabajo radica principalmente en los sutiles cambios faciales que las personas tienden a hacer. Ella ha identificado 24 puntos de referencia en la cara, cada uno moviéndose de diferentes maneras, dependiendo de una emoción expresada.[6]​ Liderando el equipo de Ciencia de la Emoción de Affectiva;[7]​ la compañía aplica la visión por computadora, el aprendizaje automático y la ciencia de datos para aprovechar el repositorio de emociones faciales de la compañía, que dice que es el más grande del mundo con 2 millones de caras,[8]​ para comprender los sentimientos y comportamientos de las personas.

Premios y reconocimientos[editar]

El Kaliouby fue incluida en el Salón de la Fama de "Mujeres en Ingeniería".[9]​ También es miembro de ACM, IEEE, Asociación de Museos para Niños, Asociación Británica de Visión Artificial y Nahdet el Mahrousa. Otros premios incluyen:

  • 7 Women to Watch in 2014 - Entrepreneur Magazine[10]
  • Mass High Tech Top 20 Women to Watch 2014[11]
  • The Wired Smart List - Wired 2013[12]
  • MIT TR35 2012[13]
  • Smithsonian Magazine American Ingenuity Award en Tecnología[14]
  • Las 50 mejores mujeres de Forbes America en tecnología 2018[15]

Libros[editar]

El Kaliouby contribuyó con un capítulo al libro de 2018 Architects of Intelligence: The Truth About AI de People People it del futurista estadounidense Martin Ford.[16]

Referencias[editar]

  1. «MIT Technology Review 2012». Archivado desde el original el 24 de julio de 2014. Consultado el 30 de julio de 2014. 
  2. «Archived copy». Archivado desde el original el 29 de noviembre de 2014. Consultado el 14 de noviembre de 2014. 
  3. «Autism Spectrum Disorder - Struggling with Communication». 
  4. El-Kaliouby, Rana; Robinson, Peter (1 de diciembre de 2005). «The emotional hearing aid: an assistive tool for children with Asperger syndrome». Universal Access in the Information Society 4 (2): 121-134. doi:10.1007/s10209-005-0119-0. 
  5. The Social-Cue Reader, New York Times Magazine December 12, 2006 [note: this article was their writeup on the innovation, but it does not actually make the statement that it got into their top 100. That's probably in some other article which we could do with a citation for. This may involve finding it in a library because it's no longer online. There are plenty of secondary-source statements out there that say this innovation got into their top 100, but it would be nice to be able to cite the list directly.]
  6. Karen Weintraub, "Teaching devices to tell a frown from a smile" Archivado el 24 de julio de 2019 en Wayback Machine., Innovators Under 35, Date not specified.
  7. «Affectiva Company Team». Consultado el 9 de noviembre de 2016. 
  8. «Affectiva builds world's largest emotion analytics repository with 2 million faces analyzed». 
  9. «The Women in Engineering Hall of Fame». Archivado desde el original el 10 de noviembre de 2016. Consultado el 22 de agosto de 2019. 
  10. «The 7 Most Powerful Women to Watch in 2014». 3 de enero de 2014. 
  11. http://www.bizjournals.com/boston/event/100331
  12. «The Wired Smart List 2013». Wired UK. 9 de diciembre de 2013. 
  13. «Innovators Under 35 2012». Archivado desde el original el 27 de enero de 2021. Consultado el 22 de agosto de 2019. 
  14. «2015 American Ingenuity Award Winners». Smithsonian Magazine. Smithsonian. Archivado desde el original el 12 de octubre de 2018. Consultado el 12 de octubre de 2018. 
  15. Helen A. S. Popkin with Lauren Aratani and Samar Marwan, ed. (29 de noviembre de 2018). «Rana el Kaliouby». Forbes. Consultado el 3 de diciembre de 2018. 
  16. Falcon, William (30 de noviembre de 2018). «This Is The Future Of AI According To 23 World-Leading AI Experts». Consultado el 20 de marzo de 2019. 

Enlaces externos[editar]