El Foro RNP debate beneficios y riesgos de las Inteligencias Artificiales
El último día del evento mostró ejemplos del uso de la tecnología y trajo alertas para el público
El último día del Foro RNP trajo al público un panel de especialistas para hablar sobre los beneficios y riesgos de las Inteligencias Artificiales (IA) generativas en el área de Tecnologías de la Información y Comunicación (TIC). Fernanda Cruz, subdirectora de TI de la RNP y mediadora del panel, afirmó que hasta 2025 el pronóstico de inversiones en IAs será alrededor de US$ 200.000 millones. "Este volumen ya muestra la importancia del tema".
Las IA generativas son capaces de crear, a partir de una base de datos, textos, imágenes y otros contenidos similares al generado por un ser humano. La desarrolladora de la RNP enfocada en soluciones de IA, Amanda Pereira, afirmó que la IA no debe eliminar empleos, “sino dejar de cargar al analista con cosas triviales que la IA puede hacer”. Ella ve una mejora en la experiencia del cliente en el Ipezinho, la red de atención de chat de la RNP. "La IA generativa ayudó a que la conversación fuera más dinámica y natural y el atendimiento más consistente".
Tresso Medeiros, gerente de TI del centro de innovación CESAR, tiene un equipo haciendo experimentos para comprender cómo una IA generativa puede aumentar la productividad en el contexto de la ingeniería de software, la educación y el diseño. El consultor de Tecnología de CESAR, Fábio Wladimir Maia, advirtió sobre el riesgo de fraude mediante el uso de IA. “Ahora puede haber redes de bots haciendo ingeniería social. Las personas son engañadas en el WhatsApp por personas que dicen ser su hijo o su padre. Hoy una persona hace esto; pronto tendremos chatbots en esta función”.
Ética en la IA
La profesora de Derecho Digital en el IDP Brasilia Bianca Kremer afirmó que “el proceso de producción de tecnología muchas veces, independientemente de si es intencional o no, reproduce sesgos raciales, sociales e impactos relevantes para nuestra forma de ser, estar y vivir en sociedad”. Ella dio ejemplos de casos reales en el panel sobre el uso ético de las IAs, mediado por Tatiana Pontes, analista académica de la Escuela Superior de Redes (ESR).
La investigadora de la UFF especializada en IA, Mariza Ferro, citó el caso de una mujer representada en una aplicación con ilustraciones sensuales y poca ropa. Ya los colegas hombres eran representados como astronautas o superhéroes. Ella señaló que el problema muchas veces radica en el entrenamiento de esta tecnología.
“Este debate nos ha permitido mirar nuestros sesgos como seres humanos. Notar cómo nosotros, como sociedad, incumplimos reglas de representación, de falta de diversidad. La IA es un gran modelo matemático que no tiene conciencia de elección. Entonces, ¿de dónde viene el sesgo? De los datos”.
Bianca Kremer expresó su preocupación con IA utilizadas para el reconocimiento facial. “En este tipo de tecnología ya tenemos ejemplos de sesgo racista. Uno de ellos es del tiktoker Benjamín, quien intentó autenticarse vía celular para acceder a un servicio bancario privado y no pudo hacerlo porque la tecnología no reconocía la piel de las personas de raza negra retinta”, dijo.
Para Mariza, es necesario actuar lo antes posible para cambiar el escenario. “Podemos actuar como sociedad, como desarrolladores. Ya no es el momento de decir que la base tenía una tendencia o no tenía representación. Es hora de actuar”.