Tu alma a cambio de datos: ¿comercio justo?

Troy Oakes

En un mundo cada vez más impulsado por los datos, ¿estamos simplemente circulando fuentes de datos en beneficio de las grandes corporaciones multinacionales? Cada minuto, hay 3.8 millones de consultas de búsqueda en Google, 4.5 millones de videos vistos en YouTube, casi $ 1 millón se ha gastado en línea y 41.6 millones de mensajes enviados a través de WhatsApp y Facebook Messenger, y estas son solo una fracción de las interacciones que actualmente ocurren en la Internet.

A medida que avanzamos en nuestra vida diaria, compartiendo nuestras experiencias personales en las redes sociales, pidiéndole a Siri que establezca nuestras alarmas y contando cuántos pasos caminamos en nuestros dispositivos portátiles, esencialmente nos estamos convirtiendo en puntos de datos para caminar, donde nuestra información se recopila y se analiza para predecir el comportamiento ¿Hacia dónde vamos a terminar?

El profesor Turgay Celik, Director de la Plataforma Nacional de Enseñanza y Capacitación de Postgrado en Ciencia Electrónica (NEPTTP) y el Instituto Wits de Ciencia de Datos (WIDS), predice que en los próximos 10 a 15 años, los humanos estaremos:

“Conectados directamente al ciberespacio sin usar dispositivos. Nuestro cerebro estará conectado directamente a internet «.

Ingenieros biomédicos de Wits ya han conectado un cerebro humano a Internet en tiempo real. Este proyecto de Brainternet esencialmente convirtió al cerebro en un nodo de «Internet de las cosas» en la World Wide Web.

En el 2019, el mismo equipo conectó dos computadoras a través del cerebro humano y transmitió palabras como «hola» y «manzana» de forma pasiva, sin que el usuario supiera que había un mensaje presente. Celik pregunta:

“¿Realmente necesitamos tener nuestros cuerpos físicos para experimentar la vida, o solo necesitamos tener nuestro propio cerebro?»

“Veremos los sistemas que crean estos entornos virtuales para brindar a los humanos una experiencia de la naturaleza. Quiere ir a ver el océano, pero ¿realmente necesita ir físicamente allí? ¿Puedo estimular una parte de mi cerebro para que me brinde esa experiencia?»

Los derechos de Android y el Big Other

El Dr. Christopher Wareham, profesor titular del Centro Steve Biko de Bioética de Wits, argumenta que debemos pensar en las implicaciones de tales desarrollos tecnológicos desde la perspectiva de los agentes artificiales. Estos «seres digitales» potencialmente tendrán vidas – y derechos – propios, agrego:

“Tradicionalmente, el enfoque de esta pregunta está muy del otro lado del problema: ¿cómo vamos a evitar que nos perjudiquen?»

“Hay muy poco trabajo que lo mire desde el otro lado. ¿Cómo vamos a evitar que los humanos dañen este ser y experimenten con él? ¿Debería haber leyes que protejan a este tipo de ser?»

Los desarrollos en el aprendizaje automático y la inteligencia artificial (IA) ya afectan significativamente la forma en que vivimos nuestras vidas hoy. La académica estadounidense Shoshana Zuboff acuñó el término «capitalismo de vigilancia» en 2014. El capitalismo de vigilancia depende de «la arquitectura global de la mediación informática … [que] produce una nueva expresión de poder distribuida y en gran medida indiscutible». Zuboff lo denomina el «Gran Otro».

Actualmente, el «Gran Otro» incluye Facebook, Google, Microsoft y Amazon.

Vigilancia del capitalismo

Escribiendo en The Guardian, Zuboff explica:

“La lógica de la vigilancia del capitalismo comienza con reclamar unilateralmente la experiencia humana privada como materia prima gratuita para la producción y las ventas.

“Estas experiencias se traducen en el comportamiento de los datos. Algunos de estos datos pueden aplicarse a mejoras de productos o servicios, y el resto se valora por su poder predictivo.

«Estos flujos de datos predictivos se introducen en productos computacionales que predicen el comportamiento humano».

El capitalismo de vigilancia es un «problema real«, dice el profesor Brian Armstrong, presidente de negocios digitales de la Wits Business School. «En mi opinión, una gran preocupación es la idea de la puntuación social». Esto se refiere a la práctica de desarrollar un sistema de calificación social para establecer si una persona es un miembro apto y adecuado en la sociedad, en términos de su » Puntuación».

En China, las empresas privadas ya están operando sistemas de crédito social, al igual que los gobiernos locales en proyectos piloto. El plan es desarrollar un sistema a nivel nacional que califique el comportamiento del individuo, que incluye otorgar un puntaje a los ciudadanos y agregar recompensas y sanciones por acciones específicas. Por ejemplo, si dona a organizaciones benéficas, obtiene puntos, pero pierde puntos por infracciones de tráfico.

En China, ya se está desarrollando un sistema de crédito social a nivel nacional. (Imagen: captura de pantalla / YouTube)

Pero uno no necesita mirar tan lejos como China para la vigilancia al estilo de Gran Hermano (Big Brother). En Johannesburgo, miles de cámaras de vigilancia ya monitorean a automovilistas y peatones 24/7. En junio, el Financial Mail informó que Vumacam, una subsidiaria de la compañía de fibra de Internet Vumatel, había instalado más de 1,200 cámaras de vigilancia para combatir el crimen. Para 2020, el número de cámaras aumentará a más de 10,000.

Las compañías de seguridad locales pueden acceder a la transmisión en vivo de Vumacam y, a medida que el sistema de inteligencia artificial aprende cómo es un día típico en un vecindario, señalará un comportamiento fuera de lo común para esa área.

La Dra. Helen Robertson, que imparte Ética y Privacidad de Datos en la Facultad de Ciencias de la Computación y Matemáticas Aplicadas, se refiere a la batalla entre nuestro derecho a la seguridad y nuestro derecho a la privacidad, además tales formas de vigilancia ponen de manifiesto, y señala:

“Me parece plausible que pensemos que nuestros reclamos de seguridad han aumentado de peso en contraste con nuestros reclamos de privacidad».

«Si los algoritmos relevantes van a identificar anormalidades en el metraje, debemos tener en cuenta cuán buenos son o no estos algoritmos».

Seguridad vs privacidad

Nuestros puntos de vista sobre la privacidad no solo se han visto afectados por preocupaciones de seguridad. La omnipresencia de las redes sociales también han jugado un papel importante. Robertson señala que la persona promedio está dispuesta a compartir mucho más sobre su vida privada hoy en comparación con hace unas décadas, y agrega que estos puntos de vista en evolución no son necesariamente problemáticos:

«Podría ser simplemente una cuestión de la convención de una sociedad en contraste con la convención de otra sociedad, y cómo tienden a sentirse con respecto a cuánto están dispuestos a compartir».

Celik cree que la privacidad se personalizará y que las personas podrán definir cuánta privacidad quieren para sí mismas. Nuestra autonomía es otra área influenciada por el mundo en línea.

Wareham argumenta que una gran cantidad de publicidad micro-dirigida y mensajes políticos están diseñados específicamente para degradar nuestra autonomía, y agrega:

«Si realiza una búsqueda en Google ahora, no obtendrá una muestra imparcial de información … obtendrá información que Google ha atendido para que usted obtenga … este tipo de micro-focalización … desea atraparlo y empujarlo a comportarse de ciertas maneras no racionales.»

Cuando utiliza Google para realizar una búsqueda, recibe resultados que han sido atendidos por usted en lugar de una muestra imparcial de información. (Imagen: captura de pantalla / YouTube)

La pregunta se convierte en quién decide qué leer, escuchar o mirar, y quién toma las decisiones sobre qué contenido es «apropiado» para una plataforma digital específica y qué no.

Hacia la tecnología que enseña

Sin embargo, los avances basados ​​en datos no son sólo pesimismo. Armstrong argumenta:

“Los datos en sí mismos no son agnósticamente buenos o malos, sino es lo que hacemos con ellos. Se puede abusar de ella o se puede usar con fines muy positivos «.

Añade que la educación es un área en la que Sudáfrica podría beneficiarse inmensamente:

«Si pudiéramos utilizar los sistemas de gestión del aprendizaje de manera más eficiente para ver cómo aprenden los estudiantes, para ver con qué material están luchando … para aprender qué estilos de enseñanza funcionan mejor, podemos individualizar la experiencia del aprendizaje».

En China, la educación habilitada para IA ya ha florecido con decenas de millones de estudiantes que usan alguna forma de IA para aprender. Esto incluye plataformas de tutoría donde los algoritmos seleccionan lecciones y adaptan el plan de estudios en función de la comprensión individual de conceptos específicos, informa  MIT Technology Review.

Proteger datos personales

Se generan cantidades asombrosas de datos a diario, pero ¿quién es el propietario de todos estos datos? Robertson señala que actualmente no hay consenso entre los especialistas en ética sobre este tema espinoso.

Se generan cantidades asombrosas de datos a diario, pero ¿quién es el propietario de todos estos datos? (Imagen: captura de pantalla / YouTube)

Algunos argumentan que el interesado posee los datos. Otros dicen que el procesador de datos que usa sus recursos para crear y analizar los datos tiene derechos de propiedad, mientras que algunos otros argumentan que en ciertos casos, como en la medicina, hay aportaciones y beneficios a la sociedad, la necesidad de tratamiento médico y sus avances significa que los datos pertenecen al dominio público.

Estos diferentes reclamos de propiedad «agregan una gran cantidad de ética gris«, dijo Robertson, y agregó:

“La propiedad de los datos es particularmente difícil. Es un objeto que puede intercambiarse, pero al mismo tiempo, tiene una referencia a un individuo, algo así como otros artefactos, como las fotografías».

«Los derechos ciertamente parecen ir en diferentes direcciones».

En el futuro cercano, los sudafricanos tendrán un poder legal considerable con respecto a la protección de sus datos. La Ley de Protección de Información Personal (POPIA – Protection of Personal Information Act) tiene como objetivo proteger el derecho a la privacidad, al tiempo que permite los beneficios sociales y económicos que resultan del libre flujo de información. POPIA estipula las condiciones bajo las cuales la información personal debe procesarse legalmente, aunque hay excepciones.

Estas condiciones incluyen que la información personal «debe ser recopilada con un propósito específico, explícitamente definido y lícito». El procesamiento adicional de la información personal solo puede llevarse a cabo si está en línea con el propósito para el cual se recopiló originalmente. La mayoría de las secciones de esta Ley aún no han comenzado. El anuncio de una fecha de inicio se espera antes de finales del 2019, después de lo cual, las empresas tendrán un año para cumplir sta Ley.

Verine Etsebeth, profesora principal de la Wits School of Law que se especializa en la protección de datos y la ley de seguridad de la información, dice que la Ley POPIA se ha retrasado desde hace mucho tiempo, y señala:

“Cuanto antes se lleve a la práctica, se podrá presentarse ante nuestros tribunales y podremos establecer precedentes».

“Será la supervivencia del más apto. Si su competidor cumple y usted no, usted no podrá retener a sus clientes, así las empresas se darán cuenta de cuánto valen sus reputaciones ”.

Desempoderamiento digital

A pesar de la emoción sobre el potencial de la tecnología para resolver algunos de nuestros problemas más complejos, muchos sudafricanos aún están excluidos de estos avances. Solo el 40 por ciento de la población de África tiene acceso a Internet en comparación con el 61 por ciento del resto del mundo. En Sudáfrica, la penetración de Internet actualmente es del 56 por ciento. Armstrong señala:

“En el mundo de hoy, el desempoderamiento digital es una de las formas más profundas de desempoderamiento.

“El desempoderamiento digital viene en tres niveles. La primera es: ¿tiene acceso? En segundo lugar, ¿lo usa? ¿En tercer lugar, está comprometido, haciendo transacciones e impactando?

«En Sudáfrica, no se tiene accesos a las redes si estas no cubren su zona donde se encuentra, o si no puede pagar el dispositivo móvil … o si no puede pagar el precio de los datos. En todas esas áreas tenemos un desafío ”.

Proporcionado por: Dr. Retha Langa, Universidad de  Wits [Nota: Los materiales pueden ser editados por contenido y duración.

Deja un comentario