Octubre, 2024.- El avance de la inteligencia artificial ha generado tanto entusiasmo como preocupación. En este contexto, Gary Marcus, uno de los críticos más destacados en el campo de la IA, ha lanzado una fuerte advertencia sobre el futuro de OpenAI, la compañía detrás del popular ChatGPT. Según Marcus, OpenAI corre el riesgo de convertirse en una de las empresas más peligrosas del mundo si se enfoca en la vigilancia masiva para generar ingresos, lo que podría comprometer la privacidad y los derechos de millones de personas.
OpenAI: ¿De la innovación a la vigilancia masiva?
Gary Marcus ha expresado su inquietud por el rumbo que podría tomar OpenAI, advirtiendo que la empresa podría transformarse en «la compañía más orwelliana de todos los tiempos». Esto se debe a que OpenAI podría usar su tecnología de inteligencia artificial para alimentar redes de vigilancia masiva, ayudando tanto a gobiernos como a campañas políticas a analizar grandes volúmenes de datos. Esta posibilidad ha generado preocupación, ya que podría convertir a la IA en una herramienta de control masivo, alejándola de su misión original de ser una fuerza innovadora para el bien.
Uno de los puntos clave que Marcus destaca es el riesgo de que OpenAI, al buscar formas de monetización, se vea tentada a usar sus sistemas de IA para la vigilancia. Esto implicaría vender acceso a datos y análisis a gobiernos o corporaciones que buscan rastrear y predecir comportamientos en gran escala. Según Marcus, esta ruta no solo traicionaría los ideales iniciales de la compañía, sino que también sería un peligroso precedente en cuanto al uso de tecnología de inteligencia artificial con fines de control.

Otra crítica de Marcus es que la IA desarrollada por OpenAI, a pesar de su popularidad, no ha alcanzado el nivel esperado por muchas empresas que probaron la tecnología en 2023. Esto ha provocado una cierta desilusión en el mercado, ya que las capacidades de los sistemas de OpenAI no han sido tan avanzadas o revolucionarias como se anticipaba. Marcus cree que OpenAI ha sido víctima de la sobreexpectación generada en torno a la IA, y que aún está lejos de cumplir con las promesas que hizo al inicio de su misión.
En junio de 2023, OpenAI desató una nueva ola de críticas al anunciar la incorporación de Paul Nakasone, exdirector de la Agencia de Seguridad Nacional (NSA) de Estados Unidos, a su junta directiva. Esta decisión alarmó a expertos en privacidad y a defensores de los derechos civiles, incluyendo a Edward Snowden, quien calificó el nombramiento de Nakasone como una «traición calculada» a los derechos de las personas. Snowden, conocido por haber destapado los programas masivos de vigilancia de la NSA en 2013, ve con extrema preocupación la combinación de inteligencia artificial con la enorme cantidad de datos acumulados durante las últimas dos décadas.
Snowden y Marcus: Un llamado a la acción ante los riesgos de la IA
La advertencia de Snowden es clara: la fusión de grandes volúmenes de datos de vigilancia con IA avanzada podría otorgar poderes peligrosos en manos de unas pocas empresas o gobiernos, con consecuencias impredecibles para la privacidad y los derechos humanos. Gary Marcus comparte esta preocupación y ha ido un paso más allá al instar a los empleados de OpenAI a manifestar sus dudas y rechazar cualquier rumbo que conduzca a la vigilancia masiva. «Si la compañía sigue por este camino, deben decir ‘no quiero ser parte de esto'», afirmó Marcus, subrayando la importancia de mantener un sentido ético en el desarrollo de la IA.
Marcus no solo ha dirigido sus críticas hacia las decisiones de la empresa, sino también hacia su CEO, Sam Altman. Según Marcus, Altman no ha sido completamente sincero en sus declaraciones sobre los riesgos de la tecnología de OpenAI. Esta falta de transparencia ha generado desconfianza entre quienes, como Marcus, temen que la compañía esté priorizando el beneficio económico sobre su misión original.

Una de las críticas más fuertes de Marcus es que OpenAI, que originalmente nació como una organización sin fines de lucro, ha cambiado su misión para convertirse en una empresa lucrativa. Este giro, según Marcus, ha puesto en peligro su compromiso inicial de ser una fuerza positiva en el desarrollo de tecnologías de inteligencia artificial, y podría llevar a decisiones que comprometan los valores éticos de la empresa.
Entonces ¿Innovación o control masivo?
El debate sobre el uso y los riesgos de la inteligencia artificial está lejos de terminar, y la advertencia de Gary Marcus acerca de OpenAI es un recordatorio de los peligros inherentes a esta tecnología si se utiliza sin un marco ético sólido. A medida que empresas como OpenAI continúan innovando en el campo de la IA, la vigilancia masiva y el control de los datos emergen como posibles amenazas que deben ser cuidadosamente reguladas.

Para Marcus, es crucial que la IA no sea utilizada como una herramienta de vigilancia, sino como un recurso para mejorar la vida de las personas sin comprometer su privacidad. El reto será mantener el equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales en un mundo cada vez más impulsado por datos y algoritmos.
Discussion about this post