El uso ético de la IA y cómo ejercerse y desplegarse está aún en pañales, pese a que expertos de diversos campos están lidiando con múltiples y hasta contradictorios enfoques regulatorios y de gobernanza que empresas del sector privado y naciones de todo el mundo están utilizando. ¿Qué ética debería aplicarse al nuevo mundo de la IA y qué barreras de seguridad se necesitan?
Jensen Huang, CEO de Nvidia, reclama que los chips de su empresa han multiplicado por mil su poder computacional en sólo 8 años. Esa cifra de crecimiento y complejidad es simplemente alucinante.
La Inteligencia Artificial (IA) continúa transformando los negocios de todo tipo y sector. Su contribución a la economía global, se estima en unos 15 billones de euros para el año 2030, según un estudio publicado por PwC. Con su rápido avance, las empresas deben aprender a usar herramientas para trabajar de manera más ágil, más rápida y mejor.
Tecnología, en su sentido más simple y técnico, es lo que ha capacitado a la especie humana para extraer materia prima, talar bosques, pescar en los mares, sembrar para comer más allá de lo sostenible. Esto nos lleva entonces a la palabra sostenibilidad, que tanto escuchamos, leemos y pregonamos hoy en día.
Llevamos unos años leyendo, hablando y observando todo lo relacionado con la Industria 4.0, un concepto creado a tiempo por Klaus Schwab, fundador del Foro Económico Mundial. Uno no debe autodenominarse 'experto' sobre un proceso transformativo que todavía está en estado embrionario.
Earl Nightingale había construido toda una industria en su propia búsqueda sobre la naturaleza humana. Fue todo un "evangelizador", pitchman y hasta casi filósofo, cuya visión comercial iba mucho más allá de la experiencia de sus penurias en la época de la Gran Depresión.