Cofundadora de Kaudal
La semana pasada asistí al 12° Congreso de Negocios en la Era Digital (NED 2023), donde el tema principal claramente fue la Inteligencia Artificial. Creo que las personas que siguen esta temática ya tienen certeza que es la próxima revolución tecnológica. Y aunque se habló mucho de su desarrollo, uso y repercusiones en los negocios, también se vieron muchas perspectivas de cómo este tipo de tecnología nos puede afectar en el futuro. Básicamente, existen dos posiciones frente a ella, la de seguir explorando e innovando, o la de tener mucha cautela e ir un poco más lento en su desarrollo. Empiezo este artículo de esta manera, dado que el fin de semana nos sorprendió con los anuncios de OpenAI, la empresa detrás de ChatGPT. Pero antes de dar más detalle sobre el tema, creo pertinente ofrecer un mejor contexto.
OpenAI, Inc. y OpenAI Global, LLC
OpenAI es una empresa de investigación y desarrollo de Inteligencia Artificial (IA), que nació con el objetivo de asegurar que la IA beneficie a toda la humanidad. Por eso que en sus principios, era solo sin fines de lucro. Sin embargo, se dieron cuenta que para sostener una operación de esa envergadura, donde había que comprar tecnología, y también tener el mejor talento, las donaciones no iban a ser suficientes. Es aquí cuando nace la subsidiaria OpenAI Global, la cual sí tiene fines de lucro, y cuando empresas como Microsoft empiezan a ser parte del juego.
Sam Altman vs el directorio
Este fin de semana, el debate sobre el futuro de la IA alcanzó su punto máximo cuando el directorio de OpenAI despidió intempestivamente a su CEO Sam Altman, lo que originó que otras personas de la compañía, incluído uno de los co-fundadores y presidente del directorio, renuncien. Finalmente, el capítulo acabó con Microsoft, contratándolos para liderar el equipo de investigación de IA avanzada en su organización. Claramente, una empresa como Microsoft busca seguir investigando de una manera más atrevida la IA, y aunque tienen un puesto en el directorio de OpenAI, ellos también se enteraron del despido unos momentos antes de que fuera público. Sin embargo, al parecer este contexto le fue más favorable aún, teniendo en sus filas a dos de los co-fundadores de OpenAI y jalándose a más personas interesadas en seguir con esta línea de investigación más agresiva.
El principal problema de este altercado, es que tanto Sam Altman, como la mayoría del directorio veían el futuro de la IA en distintas perspectivas.
Por un lado, Altman, expresó su visión de una IA más audaz y avanzada, abogando por un enfoque más arriesgado y ambicioso en el desarrollo de tecnologías inteligentes. Además, argumentaba que la innovación en IA requiere un impulso decisivo y la disposición para asumir riesgos calculados, incluso si esto implica desafiar las convenciones actuales.
Por otro lado, el directorio de OpenAI, adopta un enfoque más cauteloso, priorizando la seguridad y ética en el desarrollo de la IA. Le ponen más enfoque a la importancia de un crecimiento responsable y consideran las implicaciones éticas y sociales de manera meticulosa. Para ellos, el camino hacia adelante debe ser marcado por una prudencia cuidadosa, evitando posibles consecuencias negativas.
Análisis y Opinión Personal
En la encrucijada entre la audacia de Altman y la precaución del directorio de OpenAI, emerge una pregunta crucial: ¿cómo equilibrar la innovación con la responsabilidad? Desde mi perspectiva, este debate destaca la necesidad de encontrar un terreno común. Es esencial buscar formas de avanzar en la IA de manera audaz y transformadora, pero sin comprometer la seguridad ni descuidar las consideraciones éticas.
Yo siempre hablo de democratizar la tecnología, y promover la autonomía digital, pero este, debe ser un viaje respaldado por la responsabilidad. Capacitar a los colaboradores en habilidades digitales avanzadas implica no solo brindarles herramientas poderosas, sino también educarlos sobre su uso ético y seguro. La transformación digital no solo se trata de adoptar tecnologías avanzadas, sino también de cultivar una cultura organizacional que valore la ética y la responsabilidad en el desarrollo tecnológico.
En conclusión, la clave radica en encontrar el equilibrio adecuado. Un enfoque, que efectivamente, combine la audacia de la innovación, con la prudencia ética para formar el camino hacia un futuro donde la tecnología no solo sea avanzada, sino también segura y ética. Finalmente, para dejarlos reflexionando sobre estos eventos, les compartiré una frase que vi en un panel del NED y me dejó pensando mucho; es la de Isaac Asimov, padre de la ciencia ficción, y que se supone dijo luego de ver las consecuencias de bomba atómica:
“El aspecto más triste de la vida en este preciso momento es que la ciencia reúne el conocimiento más rápido de lo que la sociedad reúne la sabiduría”