Twitter response:

Etiqueta: big data

Ética en el Big Data y datos personales
Ética en el Big Data y datos personales

Para los últimos años, todos nos hemos vuelto cada vez más cercanos a las redes sociales, y a veces sin querer, brindamos a compañía de Inteligencia Artificial y de Big Data justo los datos necesarios para que puedan ofrecernos lo que estamos buscando o incluso pensando.

Primero, se debe entender bien qué es el Big Data: son todos los datos que se han acumulado a lo largo de tiempo de personas que brindan información, y puede ser bien, por medios digitales, escritos, platicados, etc. Hay que enfatizar el hecho que esta gran acumulación de datos es difícil de analizar, pero teniendo al personal capacitado, se puede crear los modelos necesarios para darle al usuario justo lo quiere encontrar; desde ofrecerle un producto que había estado buscando, hasta usar su información personal sin que él se entere para análisis más complejos y no bien informados.

Hay que destacar que como usuarios de la tecnología, brindamos datos personales sin realmente conocer su destino, y estos datos a su vez se usarán en algún algoritmo que aprenderá por sí mismo a dar respuestas y así hacer recomendaciones o dar cierta información a alguna empresa de Big Data, entonces las grandes pregunta serían: ¿qué tan ético es que un algoritmo (no una persona) use datos de las personas para aprender y usarlos? y ¿qué podemos hacer nosotros como personas que brindamos datos personales? Ya se vio un ejemplo donde el uso de un algoritmo de caja negra (esto quiere decir que se sabe la información que entra en él y el tipo de respuesta que se busca, pero no se conoce el proceso) generó gran controversia y problemas, Cambridge Analytica usó la información de miles de usuarios de Facebook disfrazada de encuesta para saber el tipo de personalidad para posteriormente tener publicidad política en cada Facebook de la persona encuestada.

Se puede dar otro ejemplo fuera de redes y se basa en llamadas telefónicas que, aunque se encuentre privada la información en sí de la conversación, se pueden tomar otro tipo de datos: duración, lugar de ambas llamadas, cuántas veces se ha hablado a ese número, etc. y esto es suficiente información para crear más algoritmos y nuevos resultados sin que nadie de los implicados esté enterado al respecto.

Y, en tercer lugar, el ejemplo que más ha dolido a las personas es que han tachado a algunos algoritmos de sexistas, machistas o racistas dados los “malos” resultados que pueden darse y dañando la dignidad de muchísimas personas que hacen búsquedas o reciben cierta información que no querían ver.

Los resultados de los algoritmos se ven todos los días: noticias, publicaciones, llamadas y algunos otros ejemplos que han creado el llamado “Determinismo algorítmico” que hace que cada uno lea, escuche y vea lo que el algoritmo quiere.

Como ya se había dicho antes, los algoritmos aprenden solos y ahí radica el gran problema y solución de todo: debe existir una mayor supervisión humana en el proceso para saber qué tipo de resultado se dará y así mitigar los efectos negativos que se han obtenido, deben dejar de ser una caja negra tanto para el creador como para los usuarios. El diseñador o diseñadores de cualquier tipo de algoritmo debe tener conocimiento de la Declaración sobre la ciencia y el uso del saber científico (hecho por UNESCO en 1999), resaltando los siguientes puntos:

  • “Las tecnologías basadas en nuevos métodos de comunicación, tratamiento de la información e informática han suscitado oportunidades, tareas y problemas sin precedentes para el quehacer científico y para la sociedad en general”
  • “La comunidad científica y los políticos deberían tratar de fortalecer la confianza de los ciudadanos en la ciencia”
  • “La revolución de la información y la comunicación ofrece medios nuevos y más eficaces para intercambiar los conocimientos científicos y hacer progresar la educación y la investigación”
  • “La investigación científica y el uso del saber científico deben respetar los derechos humanos y la dignidad de los seres humanos, en consonancia con la Declaración Universal de Derechos Humanos y a la luz de la Declaración Universal sobre el Genoma Humano y los Derechos Humanos”
  • “La ciencia aporta una contribución indispensable a la causa de la paz y el desarrollo y a la protección y la seguridad mundiales”

Y se resaltan los puntos anteriores ya que todos guardan una profunda relación con el deber del científico de datos de velar por la dignidad humana, y entonces también será su deber que sus creaciones (en este caso, algoritmos) trabajen y den resultados que no perjudiquen de ninguna forma. Sin embargo, se sabe que hay muy pocas instituciones que realizan formaciones sobre temas éticos y sobre todo relacionados con la deontología. Así, que se debe vigilar que más proyectos y empresas tenga a la ética como un pilar básico.

La creciente evolución de la ciencia de datos ha provocado también una revolución en las prácticas deontológicas, y esto quiere decir “hacer lo correcto y lo debido en el trabajo”, y aquí debería ser el conocer todas las implicaciones de la recopilación y el tratamiento de todos los datos, así como la realización de modelos (descriptivos y predictivos) y lamentablemente aún no está bien establecido en muchos casos, debido a que es un sector nuevo y existen leyes que rijan sobre el quehacer de todos los científicos de datos que se encuentran trabajando; y fuera del ambiente ético también debe existir una regulación en la privacidad, protección de datos y la organización (quién se hace responsable de la protección, cómo hacer un buen diseño de la investigación para proteger la privacidad, etc.). Y aquí debe tomarse también en cuenta que la baja regulación solo ha puesto un mayor énfasis en los límites que le ética que se debe fijar en los investigadores para ciertas prácticas.

Ahora debe también tomarse en cuenta a la persona que está brindando los datos, se ha mencionado ya mucho sobre cómo trabajan con los datos, pero no sobre quien los proporciona. Dada la forma actual de dar los resultados, bien la persona podría dar cierta información, pero no saber el resultado que tendrá y suscitar una “revelación imprevista” del algoritmo como predecir un dato de la persona y el usuario podría saberlo o no comprenderlo al dar su consentimiento al participar en algún estudio. La persona que da los datos siempre debe ser consciente de a quién da los datos y para qué se usarán, ninguna entidad puede actuar como el dueño de los datos; todo usuario tiene derecho al acceso a su propia información y no debe tener ninguna barrera ante la falta de transparencia. Mencionado antes el acceso, hay que recordar los datos ARCO para quien da información, que son:

acceso, rectificación, cancelación y oposición; estos siempre van a garantizar el buen uso y la protección de cada dato que se brinde a cualquier institución con el propio consentimiento.

Después de analizar los problemas, hay que analizar en qué habría que trabajarse en los siguientes años. Primero, hay que ser conscientes que los investigadores tienen diversos retos enfrente referentes a la privacidad y protección de los datos que manejan en los diversos proyectos. Es verdad que siempre al inicio de algún proyecto no se sabe con seguridad el manejo que se dará a los datos; sin embargo, debe plantearse bien los diversos caminos que podrían tomarse y darlo a conocer a los usuarios que darán su información.

Para los investigadores y científicos de datos deberán siempre conocer las amenazas para los usuarios, comunicarlas oportunamente y realizar actividades para poder mitigarlas; esto siempre se hará desde que se tenga una propuesta del proyecto, para tener una comunicación en tiempo para todos.

Por último, cabe recalcar que el Big Data seguirá desarrollándose para lograr nuevos resultados, es una herramienta del presente y del fututo para muchos campos, pero se deberá encontrar una regulación y una buena ética en proyectos e investigación. Hay que ser ahora más que nunca responsables con los datos que compartimos todos los días.

Autor: Martha Judith Méndez Pérez