domingo 14 de diciembre de 2025
12 de diciembre de 2025 - 12:07

Entre datos, riesgos y oportunidades: claves que dejó el debate sobre inteligencia artificial en Bahía Blanca

Hubo definiciones sobre la IAG, advertencias sobre el uso de datos y un mensaje común: sin ciencia y cooperación, no hay desarrollo sostenible.

En un Centro Histórico Cultural de la Universidad Nacional del Sur (UNS) colmado, la Unión Industrial de Bahía Blanca (UIBB) realizó una nueva edición de BahIA Productiva, un encuentro que reunió a referentes académicos, investigadores y figuras del ámbito empresarial y político para debatir el impacto actual y futuro de la inteligencia artificial (IA) en la región. Allí, entre otras conclusiones importantes, se destacó que Bahía Blanca tiene más de 30 años de investigación en IA, dentro de un país, Argentina, que está en una posición comparativamente buena dentro del contexto latinoamericano.

El evento contó, entre autoridades de la UIBB, con la presencia de Gustavo Elías, presidente; Gustavo Damiani, vicepresidente; Fabián Gurrado, secretario; Ariel Blázquez, vicepresidente tercero; Maximiliano Di Federico; el director ejecutivo Ricardo Rabbione; la directora institucional Marcela Guerra; el director del Centro de Estudios Económicos Martín Goslino y el prosecretario Fernando Bono, entre otros.

También estuvieron presentes Juan Ignacio Elías, en representación del Grupo La Nueva; el senador provincial electo Sergio Vargas y Gisela Caputo, recientemente electa como titular del Concejo Deliberante bahiense.

“¿Hacia dónde vamos?”

Según informa La Nueva, el doctor Diego Martínez, decano del Departamento de Ciencias e Ingeniería en Computación de la UNS, comenzó su disertación afirmando: "La historia de la computación nos ha conducido, paso a paso, hacia la búsqueda de formas de inteligencia creadas por el ser humano: lo que llamamos inteligencia artificial. Y surge entonces una pregunta fundamental: ¿hacia dónde vamos? Muchos sostienen que nos estamos acercando a la llamada inteligencia artificial general, un concepto ampliamente mencionado en los medios, en las empresas y también en la academia, aunque todavía sin una definición consensuada. En términos simples, se la imagina como una inteligencia capaz de realizar cualquier tarea cognitiva que pueda hacer un ser humano".

"La evolución de las computadoras es, en gran medida, la historia de esta delegación. En las primeras décadas, ya hacia fines de los años cuarenta y cincuenta, logramos automatizar operaciones aritméticas y algoritmos para ordenar listas de datos. Más tarde, se resolvieron desafíos como jugar juegos de tablero simples, reconocer rostros, traducir textos o interpretar el habla en tiempo real. Luego aparecieron tecnologías más complejas, como los vehículos autónomos, la interpretación avanzada de imágenes y la generación automática de textos, historias e incluso obras artísticas. Son avances notables, aunque muchos de ellos aún dependen de restricciones y condiciones específicas", señaló Martínez.

"Muchos sostienen que nos estamos acercando a la llamada inteligencia artificial general, un concepto ampliamente mencionado en los medios, en las empresas y también en la academia, aunque todavía sin una definición consensuada. Se la imagina como una inteligencia capaz de realizar cualquier tarea cognitiva que pueda hacer un ser humano", resaltó.

"La inteligencia artificial es una disciplina dentro de la ciencia de la computación, y es extraordinariamente compleja. En mi caso particular, mi trabajo de investigación se centra en el área de la argumentación automática, una rama muy específica pero fundamental dentro del campo", amplió.

El doctor Martínez afirmó que aunque hoy la IA tenga un protagonismo mediático excepcional, se debe recordar que se trata de una disciplina con una larga trayectoria. "En nuestra región, por ejemplo, llevamos más de 30 años investigando en inteligencia artificial. Y globalmente, el punto de partida suele ubicarse en 1955, cuando John McCarthy acuñó por primera vez el término ‘inteligencia artificial’", remarcó.

"Desde entonces, la evolución de la IA ha atravesado distintos ciclos, con períodos de grandes avances y otros de estancamiento. Cada etapa ha estado marcada por logros tecnológicos y científicos que han ampliado las fronteras de lo posible", puntualizó.

La IAG

En un momento de la exposición, el doctor Martínez se preguntó: "¿Cuánto falta para alcanzar una inteligencia artificial general?"

Y sostuvo: "No lo sabemos. Existen distintas posturas. Hay quienes aseguran que faltan dos, tres o cuatro años para lograrla. Esta visión aparece con frecuencia más en el ámbito empresarial o en zonas intermedias entre la industria y la ciencia". Agregó: "Otros, más escépticos, consideran que ese objetivo está tan lejano que ni siquiera vale la pena formularlo en el corto plazo. Desde esta postura, la inteligencia artificial que verdaderamente transformará el mundo no será la general, sino aquella diseñada para resolver problemas puntuales: diagnosticar enfermedades, optimizar sistemas ingenieriles, mejorar procesos complejos. Y este tipo de desarrollos, a diferencia de la inteligencia general, sí es algo que consideramos cercano y factible", subrayó.

Impactos negativos

Martínez también aludió a los impactos negativos de la IA. Uno de ellos es que parte del aprendizaje automático se basa en reconocer patrones sin comprender realmente el proceso subyacente. "Introducimos datos, obtenemos un resultado, pero no siempre sabemos cómo se llegó a él. Esto genera incertidumbre y falta de interpretabilidad", remarcó.

"Otro riesgo es que los resultados pueden incorporar sesgos presentes en los datos, o incluso amplificarlos. Además, se observa una creciente concentración del poder: las instituciones que lideran los desarrollos en inteligencia artificial son empresas que invierten sumas multimillonarias. Frente a ellas, incluso las universidades e instituciones científicas más prestigiosas tienen un rol comparativamente marginal. Esta asimetría es un desafío serio para el futuro del campo", concluyó.

La relevancia de los datos

A su turno, el doctor Marcelo Falappa, director de la Asociación de Inteligencia Artificial de la Universidad Interamericana, con más de 30 años de experiencia docente y de 20 como investigador, hizo hincapié en la inteligencia artificial y los datos.

"Son dos conceptos inseparables. Se ha dicho muchas veces que la IA es 'el juego de la imitación', expresión que también aparece en la película sobre la vida de Alan Turing. Turing fue uno de los primeros en pensar la inteligencia artificial como la capacidad de una máquina para imitar el comportamiento humano. Y para lograr esa imitación -del razonamiento, del pensamiento, del lenguaje y de la escritura- la inteligencia artificial necesita un insumo central: datos, datos y más datos", señaló Falappa.

Tipos de datos

"Uno de los primeros elementos a considerar es que los datos presentan múltiples características. En primer lugar, está el volumen, y en las últimas tres o cuatro décadas hemos producido cantidades inmensas de información digital. Si retrocedemos incluso antes de la era informática, ya contábamos con registros sistemáticos. Un ejemplo habitual es el de los datos climáticos: temperatura, humedad, precipitaciones. Este año, por ejemplo, Bahía Blanca ha registrado el mayor nivel de lluvias desde que existen mediciones, hace ya más de un siglo", ejemplificó.

"Otro aspecto es la velocidad, asociada al flujo continuo de información proveniente de plataformas digitales, servicios de streaming, redes sociales y sistemas online. Esa corriente de datos es tan vasta que resulta difícil dimensionarla", amplió.

"También debemos mencionar la variedad. Hoy manejamos datos estructurados -como bases de datos, formularios o artículos científicos- pero también datos no estructurados: textos libres, imágenes, videos, audios, publicaciones en redes, entre muchos otros", apuntó.

"A ello se suma un problema emergente: la veracidad. En la actualidad, la red permite que individuos y organizaciones difundan información falsa con enorme facilidad. Se ha demostrado que procesos electorales en distintos países fueron influidos por campañas de desinformación diseñadas para alterar el estado de ánimo de la población. Uno de los casos emblemáticos fue el Brexit, donde, tras la votación, muchas personas afirmaron haber apoyado la salida de Gran Bretaña de la Unión Europea pensando que esa opción no ganaría", resaltó.

Además, según remarcó, se habla de la variabilidad, la llamada “sexta V”: la naturaleza cambiante de los datos. "Las empresas analizan continuamente el estado de la información -preferencias, hábitos, intereses- para determinar el mejor momento para ofrecer determinados productos. No es casual que, cuando consultamos una aplicación de compras, nos aparezcan sugerencias personalizadas, promociones o productos complementarios. Detrás de esas recomendaciones hay modelos de IA que buscan perfilar al usuario para maximizar ventas y beneficios", afirmó.

Accesibilidad

"Ahora bien, el problema ya no es solo la cantidad de datos, sino también su accesibilidad real. El usuario común solo ve entre el 5 y el 10% de la información disponible en la red; aquella que está indexada y a la que es posible acceder fácilmente. Sin embargo, existe una enorme proporción de datos ocultos en la denominada web profunda, información no indexada que requiere herramientas, conocimientos y motivaciones específicas para ser consultada. Una parte importante de los datos que alimentan a la inteligencia artificial generativa -tema central de otras presentaciones de esta jornada- proviene precisamente de esos entornos", contó.

Además de los datos que se generan en cada actividad digital cotidiana -expresó Falappa- existe un universo aún mayor producido por sensores, dispositivos industriales, sistemas de monitoreo, vehículos inteligentes y fábricas automatizadas. Una sola sección de una fábrica inteligente puede generar más de un terabyte de información por día. Para dimensionarlo: un terabyte equivale a más de mil gigabytes. Con apenas un par de gigabytes es posible almacenar la historia completa de nuestras fotografías digitales de dos décadas. Imaginemos, entonces, el volumen que representan estos sistemas industriales", sostuvo.

"Cada uno de estos ejemplos nos muestra que la cantidad y complejidad de los datos con los que trabajamos hoy es extremadamente superior a la que manejábamos hace apenas unos años. Y es precisamente este crecimiento explosivo de los datos lo que ha permitido el enorme salto cualitativo que observamos en la inteligencia artificial contemporánea", manifestó.

Como "en la película"

El doctor Carlos Chesñevar, director del Instituto Ciencias de Ingeniería de la Computación (ICIV-CONICET-UNS), investigador principal del CONICET y profesor de la UNS, inició su discurso con un ejemplo de una anécdota puntual que le sucedió. "Hace más de 20 años, en un aeropuerto, antes de tomar un avión, alguien me preguntó a qué me dedicaba. Cuando respondí 'trabajo en inteligencia artificial', la persona contestó: 'Ah, como la película'. Y el diálogo terminó ahí. Eso era en 2003. Mucho cambió desde entonces; hoy todos tenemos, al menos, una idea general de qué trata la inteligencia artificial. Ya no es solamente aquella película que nos conmovió, sino que forma parte de la industria, de la vida cotidiana y del desarrollo productivo. Por eso agradecemos a los directivos de la UIBB y al Municipio de Bahía Blanca por crear este espacio y permitirnos compartir parte del trabajo que hacemos en la Universidad Nacional del Sur", expresó.

"Si pensamos en las revoluciones industriales a lo largo del tiempo, sabemos que la máquina de vapor marcó un cambio gradual que derivó en distintos modelos productivos hasta llegar a la actual Industria 5.0, donde la sustentabilidad y el enfoque centrado en las personas son esenciales, combinados con las capacidades del mundo digital. Vivimos, en definitiva, en una sociedad profundamente digitalizada", dijo.

Y agregó: "Cómo mencionó Diego en la primera charla, la inteligencia artificial tiene más de 70 años de historia. Sin embargo, en los últimos dos años apareció la inteligencia artificial generativa, que representa un cambio verdaderamente disruptivo".

Cuestión de cifras

Este fenómeno, según mencionó- también impacta en la industria. "Consultoras internacionales, como Accenture, estiman que solo en Argentina la incorporación de IA podría generar beneficios adicionales del orden de 150.000 millones de dólares en términos de crecimiento del PBI. En América Latina, apenas el 3% del mercado de IA corresponde a la región, pero aun así Argentina ocupa una posición comparativamente favorable", explicó.

"Accenture también identificó ciertos imperativos estratégicos: generar valor agregado, desarrollar un núcleo digital sólido, reinventar el talento -tema crucial para imaginar el trabajo del futuro-, reducir la brecha en torno a la IA responsable y fomentar la educación continua. Todo esto se enmarca en el escenario de disrupción tecnológica que trae la IA generativa", amplió.

Sustentabilidad

"Miraba el eslogan del Gobierno de Bahía Blanca: 'Promoviendo el desarrollo industrial sustentable'. Esa palabra -sustentabilidad- es central en la visión de la industria 5.0. En el informe de Accenture se describen distintos escenarios posibles para adoptar IA, desde los más agresivos hasta los más cautelosos, y se concluye que el camino más sostenible es aquel donde las personas ocupan un rol central. No podemos pensar el desarrollo tecnológico dejando de lado a quienes serán sus beneficiarios directos", afirmó.

Chesñevar dijo que cuando se habla de la relación entre industria, academia y gobierno, aparece el conocido modelo de la triple hélice. "Estos tres actores interactúan: la industria trae los desafíos productivos, el gobierno regula y marca estrategias, y la academia genera conocimiento y soluciones. Hoy nos encontramos con que todos -gobierno, empresas y universidades- afirman: 'Hablemos de inteligencia artificial, es el tema del momento. Queremos saber qué hacer con ella'", sintetizó.

La Torre de Babel de la IA

Chesñevar también utilizo una metáfora referida a la Torre de Babel. "Todos hablan sobre IA, pero cada uno lo hace en un idioma diferente. Las empresas tienen expectativas que a veces no coinciden con la capacidad real de la tecnología; los académicos imaginan aplicaciones basadas en evidencia científica y los responsables de políticas públicas piensan en regulaciones, currículas y estrategias a largo plazo. Esas divergencias generan confusión", aseguró.

"Otra metáfora útil es la de la alquimia y la química. Todos vimos películas de magia, trucos y secretos ocultos. La alquimia, en la Edad Media, mezclaba intuición, simbolismo y experimentación opaca para intentar, por ejemplo, transformar plomo en oro. Con el tiempo surgió la química, una ciencia empírica, transparente y reproducible. ¿Por qué traigo esta analogía? Porque, muchas veces, el discurso popular sobre la IA se parece más a la alquimia que a la ciencia. Son miradas ingenuas, que depositan saberes y poderes extraordinarios en herramientas comerciales que, en realidad, requieren una comprensión más profunda y rigurosa", remarcó.

"En lugar de esa 'mirada alquímica', necesitamos una mirada científica y preguntarnos por qué ciertos modelos fallan en problemas matemáticos simples, qué impacto tiene el uso continuo de IA en las capacidades cognitivas de los trabajadores, qué límites y riesgos existen, y qué condiciones hacen que una solución tecnológica sea realmente fiable", subrayó.

"Por eso sostengo que no podemos integrar la IA en la industria desde la alquimia. Las empresas que venden productos comerciales tienen derecho a promocionarlos, pero esa divulgación muchas veces oculta información relevante o genera expectativas irreales. Ahí es donde entran las universidades, los equipos de investigación y la articulación interdisciplinaria: para aclarar, desmitificar, medir y acompañar. Para pasar de la mirada mágica a la mirada científica", apuntó.

En síntesis, Chesñevar contó que el progreso real no surge de los trucos ni de las promesas, sino de la cooperación entre la academia, la industria y el sector público.

"Solo así podemos transformar la 'alquimia' de la IA en química: en conocimiento claro, confiable y orientado al desarrollo productivo y social", finalizó.

Otras conferencias

Además de los mencionados, también disertaron el doctor Gerardo Simari, sobre “Inteligencia Artificial hoy: panorama general y lo que se viene”; el ingeniero Juan Pablo Braña, quien habló sobre “IA y seguridad informática en las empresas” y la doctora Sofía Geyer, sobre “Impacto de la IA sobre la fuerza de trabajo y los procesos laborales”.

Además se habló sobre Inteligencia Artificial: Presente y Futuro, con la exposición del doctor Gerardo Simari sobre “Inteligencia Artificial hoy: panorama general y lo que se viene” y el doctor Carlos Regazzoni sobre “Inteligencia Artificial y cuidados de la salud”.

Posteriormente repitieron el ingeniero Juan Pablo Braña, quien habló sobre “IA y seguridad informática en las empresas” y la doctora Sofía Geyer, sobre “Impacto de la IA sobre la fuerza de trabajo y los procesos laborales”.

Fuente: Agencia DIB

Ver más

Tu comentario

LO QUE SE LEE AHORA
Ricardo Moccero, intendente de Coronel Suárez.

Las Más Leídas

Te Puede Interesar