El mundo cambia a velocidad fulgurante y
los principios y normas morales se ven actualizados por la fuerza de
los hechos. Los usuarios nos desnudamos en las redes y las compañías de
Inteligencia Artificial (IA) y Big Data extraen provechosas ganancias de
nuestra impudicia. Sin normas, en el territorio del más fuerte, las
preguntas se acumulan.
¿Por qué nos desnudamos públicamente en las redes? Quizá esta sea la
pregunta de base. Imagina una reunión de amigos en la que uno tras otro,
os ponéis a contaros vuestros secretos.
Es probable que la mayoría sea reticente a hacerlo y solo alguno
hablaría de su intimidad sin tapujos. El caso es que en las redes
sociales, son millones de personas las que cuentan detalles íntimos o
cuando menos personales y emiten opiniones orgullosos de hacerlo sin
medir las consecuencias.
Haz una prueba: elige a un conocido o una conocida. Busca en la red por
su nombre. Tómate un poco de tiempo. Es probable que acabes sabiendo su
edad, estudios, trabajo, familia, amigos, aficiones…
Si tú puedes hacer esto, imagina lo que serán capaces de hacer las empresas o gobiernos.
No siempre ponemos nuestros datos a disposición de todo el mundo, pero
prácticamente todos nosotros entregamos datos sensibles a las compañías
tecnológicas, típicamente Google o Facebook.
¿Por qué lo hacemos? La respuesta es la gratuidad del servicio que nos
ofrecen. Pero, ¿es de verdad el servicio gratuito? Google y Facebook
viven de la publicidad. Se han convertido en un monopolio del marketing.
Miles de empresas pagan millones de euros a ambas para hacer campañas
publicitarias. Y esto ocurre porque tienen tus datos. Tus datos valen
dinero y los datos agregados de todos los usuarios valen millones de
euros.
¿Lo saben todo de ti? Obviamente no, pero saben lo suficiente para
extraer valor de tu presencia en las redes. La realidad es que saben
mucho. Mira tu cronología de Google.
Si has permitido rastrear tu ubicación, esta empresa sabe dónde has
estado en cada momento de tu vida desde que les permitiste husmear en tu
vida. No es poco. Además las empresas tecnológicas saben cuáles son tus
preferencias, qué compras y qué opinión política tienes.
Los algoritmos tienen importantes problemas desde el punto de vista ético. Si queremos que sean realmente útiles y eficaces, deben aprender por sí mismos; la supervisión humana genera ineficiencia. Y si aprenden solos, ¿cómo controlar lo que aprenden?
El escándalo de Cambridge Analytica demostró lo vulnerable que es
nuestra privacidad. Todo comenzó por un simple test de personalidad.
Responde a unas preguntas y te diremos cómo eres. Con estas preguntas y
la información de Facebook, se infirieron los perfiles psicológicos de
los usuarios.
Más de 250.000 usuarios contestaron a este test, pero además se pidió
permiso para acceder la información de la red de amigos sin permiso de
estos. Como resultado, la empresa obtuvo información de más de cincuenta
millones de usuarios.
Lo siguiente fue enviar información selectiva y fake news para
influir en el comportamiento de los usuarios en las elecciones. Si
estás indeciso, te animan a cambiar y si estás convencido, te anima a
quedarte en casa y no votar. El escándalo fue mayúsculo.
Los medios de recoger información pueden ser otros como los del caso
Snowden. Este informático demostró cómo las agencias americanas usaban
los metadatos (y a veces los datos) para elaborar una valiosa
información. Cuando hablas por teléfono, aparte de la conversación en
sí, se registran otros datos.
Cuándo llamaste, a quién llamaste, cuánto duró la llamada, dónde
estabais tú y tu interlocutor, cuántas veces hablasteis. Como te
imaginas, más que suficiente para hacerse una muy buena idea de tu vida,
aunque el contenido de las conversaciones permanezca privado. El poder
de los metadatos es gigantesco.
El poder de los algoritmos
Las compañías tecnológicas y los gobiernos tienen mucha información
sobre ti. Y la usan. Permanentemente te están llegando noticias a través
de los medios tecnológicos que usas. ¿Qué noticias? Las que seleccionan
los algoritmos para ti.
Se supone que es bueno que no te lleguen noticias de pañales si tienes
cincuenta años y que la publicidad bien segmentada es buena. Pero lo
cierto es que el poder de los algoritmos es enorme. Igualmente los de
recomendación.
Esto lleva al llamado determinismo algorítmico: solo leo lo que quiero
leer o lo que las empresas quieren que lea. Para salirme del bucle debe
realizar un esfuerzo deliberado de lucha contra el algoritmo.
Si me dejo llevar siempre recibiré las noticias políticas de determinada
ideología, escucharé la misma música, compraré el mismo tipo de ropa y
leeré las mismas novelas. Esta selección ¿es censura?
Los algoritmos tienen importantes problemas desde el punto de vista
ético. Si queremos que sean realmente útiles y eficaces, deben aprender
por sí mismos; la supervisión humana genera ineficiencia. Y si aprenden
solos, ¿cómo controlar lo que aprenden?
Los algoritmos tienden a seguir los sesgos de los datos que se les
presentan y los datos se corresponden con realidades con las que no
estamos conformes. Así, es común que los algoritmos aprendan a ser
clasistas, sexistas y racistas. Pero lo peor es que es difícil
corregirlos ya que no sabemos cómo funcionan.
Conocemos el mecanismo por el que realizan su función ya que los hemos
programado, pero dado que usan millones de datos y estos alteran su
estado, lo cierto es que no podemos explicar por qué toman sus
decisiones. Los algoritmos no pueden seguir siendo una caja negra, es
esencial que tengan mecanismos de explicación de su actuación.
¿Tenemos derecho a la rectificación? Si los algoritmos trabajan de forma
que nos incomode como ciudadanos, ¿podemos solicitar a las empresas que
cambien su comportamiento?
Y si los datos que existen en la red no nos gustan, ¿tenemos derecho al
olvido? ¿Nos perseguirá siempre el comentario inapropiado o la foto
desafortunada que subimos? ¿A quién recurrimos?
¿Deben ser los gobiernos proactivos en la defensa de los ciudadanos o es
un acuerdo entre usuario y empresa en la que los gobiernos no deben
actuar? Lo cierto es que la Unión Europea ha promulgado el Reglamento General de Protección de Datos GDPR1.
La regulación remodela fundamentalmente la forma en que los datos se
manejan en todos los sectores, desde la atención médica hasta la banca.
¿Es el GDPR suficiente? Parece obvio que no. Los datos son la materia
prima de la era de la información y su comercio es muy lucrativo. Estos
datos alimentan las inteligencias artificiales que determinan en buena
medida qué hacemos, qué compramos o a dónde vamos de vacaciones.
Está claro que dejar el control de los algoritmos a las empresas que los crean es como dejar al zorro vigilando a las gallinas.
Ciberseguridad, robótica y IA
Además del control del comercio de datos existe otro enorme problema: la
ciberseguridad. Por diversión, por curiosidad intelectual, por maldad,
por dinero o por motivos políticos y estratégicos, miles de expertos
informáticos del mundo se dedican a reventar los sistemas de seguridad
de las empresas, gobiernos y usuarios.
Las implicaciones son gigantescas, desde amenazas militares hasta
simples ordenadores de usuarios que se infectan con virus y dejan de
funcionar. Dada la complejidad de la interconexión mundial, el campo de
batalla es idóneo y la lucha no parece tener fin.
En 2017, el Parlamento Europeo realizó un Informe con destino a la
Comisión para que esta legisle sobre robótica, IA y sociedad. El informe
es exhaustivo y recoge muchas de las preocupaciones que la robótica y
la inteligencia artificial despiertan en la sociedad.
A la par que enumera las ventajas de los sistemas inteligentes en una
sociedad envejecida y recomienda no entorpecer la innovación en este
ámbito, también se hace cargo de que “el desarrollo de máquinas
inteligentes y autónomas, con capacidad de ser entrenadas para pensar y
tomar decisiones de manera independiente, no solo implica ventajas
económicas, sino también distintas preocupaciones relativas a sus
efectos directos e indirectos en el conjunto de la sociedad”.
El vertiginoso avance de las tecnologías de la información nos obliga a mirar el futuro con un poco de sosiego, definir los problemas éticos a los que nos enfrentamos y crear unas normas de actuación que ahora no existen
Respecto de los robots (aunque los robots llaman más la atención, deberíamos de hablar de software inteligente) las preguntas se acumulan. ¿Tendrán derechos los robots? ¿Podrían adquirir algún estatus humano los robots? ¿A quién son imputables las decisiones de los robots? ¿Se deben o no crear vínculos emocionales con los robots? Pero la mayor preocupación es la incidencia de la automatización en el mercado de trabajo. ¿Nos quitarán los robots el trabajo? ¿Quién cotizará a la seguridad social? ¿Cómo pagaremos las jubilaciones y el desempleo? ¿Cómo hacemos frente a la desigualdad que generan los robots en la distribución de la riqueza y el poder? ¿Deberíamos someter a los robots a un impuesto o un gravamen por su uso? La irrupción de las tecnologías de la información ha supuesto un enorme avance en la calidad de vida de los ciudadanos del mundo. Vivimos más y mejor gracias a la tecnología.
Pero este vertiginoso avance nos obliga a mirar el futuro con un poco de sosiego, definir los problemas éticos a los que nos enfrentamos y crear unas normas de actuación que ahora no existen. No tenemos mucho tiempo.
Fuente: Antonio Orbe “Tecnologías sin ética: Desde el Big Data a los algoritmos y a la manipulación“