
Hace un par de semanas pregunté si deberíamos tenerle miedo a la inteligencia artificial (IA) (Segovia, R. Boletín Líder Humano, 27 de marzo de 2023). La respuesta que compartí, en términos generales, fue que no es que debamos tener miedo de la IA en sí, sino de su mal uso y los riesgos que puede presentar si no se controla adecuadamente.
Pues bien, hace unos días Elon Musk y un grupo de personas pidieron pausar inmediatamente, y durante al menos seis meses, el entrenamiento de la IA, por considerar que está “fuera de control” y que presenta “profundos riesgos para la sociedad y humanidad.” ”. En concreto, ¿a qué riesgos se refieren?
Mencionemos algunos de ellos y se enumeran en la carta firmada, entre muchos otros, por Elon Musk, CEO de SpaceX, Tesla & Twitter; Steve Wozniak, cofundador de Apple; y Yuval Noah Harari, autor y profesor de la Universidad Hebrea de Jerusalén (Pausar experimentos gigantes de IA: una carta abierta, marzo de 2023).
- Inclinación: Una de las principales preocupaciones es la posibilidad de que la IA dé respuestas sesgadas, difunda información errónea y viole la privacidad de las personas.
- Brechas laborales: La IA eliminará muchos puestos de trabajo, cambiará las competencias laborales y generará mayores brechas laborales, y por ende sociales, en la población.
- Academia: A través de la IA, los estudiantes podrán engañar y diluir la generación de conocimiento.
El Abajofirmante de esta carta sustentan sus inquietudes a través de diferentes preguntas (método socrático). Veamos algunos de ellos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?; ¿Deberíamos automatizar todos los trabajos?; ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?
A pocos días de esta carta, Bill Gates, cofundador de Microsoft, señaló que pausar el desarrollo de la Inteligencia Artificial no servirá de mucho, ya que detener su avance no ayudará a resolver los desafíos que plantea esta tecnología. Incluso argumenta que la IA se puede utilizar para reducir las desigualdades en el mundo, como la falta de educación o el acceso a la medicina.
Yuval Harari, firmante de la carta que pide la suspensión de AI, publicó un mensaje en Twitter (03 de abril de 2023) en el que parece moderar o explicar su posición señalando que: “el peligro es que si invertimos demasiado en el desarrollo de la inteligencia artificial y muy poco en el desarrollo de la conciencia humana, la inteligencia artificial altamente sofisticada de las computadoras solo podría servir para aumentar la estupidez natural de los humanos”.
No ignoro ni minimizo las preocupaciones de empresarios, académicos y pensadores, pero ¿suspender el avance de la IA es la solución? Stephen Hawking señaló en su momento que “no podemos detener el avance de la tecnología, pero podemos guiarla para que beneficie a la humanidad en lugar de perjudicarla”.
Más allá de las decisiones que se toman y que están (muy) lejos de nuestra zona de influencia, ¿qué podemos hacer?
- Organizaciones: He estado argumentando desde hace algún tiempo que las empresas necesitan crear un nuevo puesto que informe directamente a la junta directiva: un director de ética (idealmente separado del director de cumplimiento) que ayude a desarrollar y mantener políticas y procedimientos ética para actuar y toma de decisiones de las empresas y sus integrantes con especial foco en las nuevas tecnologías utilizadas por la organización.
- Brechas laborales. Si la educación y la capacitación se han democratizado en los últimos años, debemos acelerar los programas en nuestras universidades y lugares de trabajo que desarrollen habilidades para los nuevos puestos y funciones que creará la IA. Hoy en día, ya existen puestos altamente especializados que requieren habilidades y conocimientos específicos (por ejemplo, robótica, ciberseguridad, análisis de datos y automatización de procesos, por nombrar algunos); pero también funciones generalistas que requieren menos especialización y pueden ser desempeñadas por personas con diferentes niveles de habilidad y experiencia (mencionemos algunas: atención al cliente, gestión de la experiencia del usuario, investigación de mercado, gestión y gestión de proyectos). de datos).
- Academia: Necesitamos impulsar con fuerza el uso de la IA en entornos académicos. Estoy convencido de que se puede utilizar para plagiar, o se puede utilizar para promover la generación de conocimiento, todo depende del sistema de valores compartido por docentes, estudiantes y universidades. Personalmente, animo y pido a mis alumnos que lo utilicen en su trabajo. Obviamente mi exigencia a la hora de calificar y la forma de evaluar es mayor, ya que ahora cuentan con ayuda adicional.
De nuevo y lo vengo repitiendo:
PRIMERO: No olvidemos que la inteligencia artificial NO va a venir a quitarnos el trabajo, lo va a hacer una persona que sepa usar la inteligencia artificial.
SEGUNDO: No es la herramienta, es el operador (es decir, el ser humano).
Epílogo.- Se habla y se habla (mucho) de regular la IA y evitar que cause daño a la humanidad y bueno… todo lo que ya mencionamos líneas arriba. Lo que nos debe preocupar es… ¿Quién va a ser el árbitro que dicte las reglas? Estamos a un paso de volver a caer en el etnocentrismo, es decir, la tendencia de una cultura o forma de pensar a considerarse a sí misma como el patrón de medida para evaluar y juzgar en base a la creencia de que su propia cultura, valores, normas y formas de la vida son mejores y más apropiados.
El autor es Doctor en Filosofía, fundador de Human Leader, Socio-Director de Think Talent y Profesor del ITESM.
Contacto: rogelio.segovia@thinktalent.mx
METRO es un sitio web internacional en donde destacan las noticias más relevantes de hoy, actualidad y diversos temas como deportes, politica, economía y más. Con información veráz y acertada en cada noticia de todo el mundo.
