Details
Nothing to say, yet
Details
Nothing to say, yet
Comment
Nothing to say, yet
The podcast discusses the bioethical implications of Artificial Intelligence (AI). It highlights the potential for AI to widen social inequalities and emphasizes the responsibility of engineers to ensure inclusivity and accessibility. The limitations of AI's intelligence compared to human intelligence are also discussed, along with the need to consider the biases and prejudices embedded in AI algorithms. The long-term implications of AI-driven automation and the ethical principles guiding AI decision-making are explored. The importance of integrating ethics in the development of AI is emphasized, along with the need to create a technology-driven future that respects and protects human values. The podcast concludes by urging engineers to consider the impact their work can have on society and strive to use technology to create a better world. Hola, mucho gusto, mi nombre es Sebastián Moreno, estudiante de Ingeniería de Sistemas de la Universidad del Bosque, y bienvenidos a este podcast. El título de este podcast es La Inteligencia Artificial, no sé ya sus usos, una reflexión bioética. Bueno, hoy quiero compartir algunas reflexiones sobre una conferencia que tuve la oportunidad de escuchar recientemente, impartida por la profesora Constanza Ovalle Gómez, quien nos habló sobre las implicaciones bioéticas de la Inteligencia Artificial, IA. La Inteligencia Artificial es una de las tecnologías más emocionantes y transformadoras de nuestra era, definitivamente. Desde sistemas de recomendación en plataformas de streaming, hasta sistemas virtuales como Siri, Alexa, etc. La IA ya está profundamente integrada en nuestras actividades cotidianas. Sin embargo, como la profesora Ovalle mencionó, hay un aspecto de la IA que no se ha discutido lo suficientemente, sus implicaciones éticas y sociales. Quisiera comenzar reflexionando sobre el concepto de desigualdad tecnológica. La profesora Ovalle hizo un punto importante al destacar que la IA, en lugar de ser una fuerza niveladora, podría estar ampliando las brechas sociales. Esto es evidente cuando consideramos como el acceso a la tecnología varía drásticamente entre varias partes del mundo, mientras que en algunos países se están desarrollando y creando IAs más avanzadas para resolver problemas complejos. En otros lugares, las personas aún luchan por acceder a necesidades básicas como el agua potable, pero no tienen los recursos suficientes. Esto nos deja plantearnos una pregunta crítica. Para nosotros que somos futuros ingenieros de sistemas, ¿cómo podemos garantizar que las creaciones e innovaciones tecnológicas que hacemos sean inclusivas y accesibles para todas las personas? O sea, no se trata únicamente de crear soluciones brillantes, increíbles, ¿no? Pues toca asegurarnos de que estas soluciones sean y puedan ser utilizadas por todos, independientemente de donde se encuentren geográficamente o cual sea su nivel socioeconómico. Además, otro tema del que me llamó la atención fue la discusión sobre la naturaleza de la inteligencia en la inteligencia artificial. A menudo nosotros nos referimos a la inteligencia artificial, o sea, la IA, como si fuera verdaderamente inteligente. Pero, como destacó la profesora Valle, estos sistemas no son inteligentes en el sentido humano. No entienden el mundo como nosotros. Simplemente procesan grandes cantidades de datos y hacen predicciones basadas en patrones. Esto significa que la IA está muy, pero muy limitada por los datos con los que es entrenada y prácticamente los datos o, bueno, los sesgos perceptivos que tiene la persona que programa esa inteligencia artificial. Por eso, después de pensarlo, me llegó a otra reflexión muy importante, la responsabilidad de quienes desarrollamos estas tecnologías. Como viéndoles del punto ingeniero de sistemas que somos nosotros, ¿qué responsabilidad tenemos nosotros que somos los que creamos estas tecnologías? Si bien la IA tiene muchísimo potencial para tomar decisiones de manera más rápida y precisa que el ser humano, hay que tener en cuenta que nosotros los seres humanos, en ciertos contextos, en ciertas situaciones, las decisiones que nosotros tomamos están limitadas, o bueno, están llevadas por una condición egoísta, tipo nuestros propios prejuicios. Si me hago entender, por lo tanto, o sea, como futuros profesionales en el campo de la tecnología, teníamos que preguntarnos, ¿qué tipo de datos estamos utilizando para entrenar a las IAs? ¿Estamos reforzando estereotipos y discriminaciones a través de nuestros algoritmos? Pues, como lo había mencionado anteriormente, nuestras decisiones están limitadas, o bueno, están condicionadas por limitaciones y prejuicios humanos. Por lo tanto, hay que preguntarnos si los datos que usamos para entrenar a nuestras IAs están reforzados por sus prejuicios humanos, y nosotros los estamos reforzando a través de nuestros algoritmos. Por eso mismo, también es crucial considerar las implicaciones a largo plazo de la automatización impulsada por la IA. La profesora Valle nos había mencionado que en un futuro en el que solamente un tercio de la población podría vivir del trabajo remunerado, lo que nos hace entender y nos sugiere que habrá un cambio radical en cómo vemos el trabajo y el sustento. O sea, que este escenario que, hipotéticamente, nos plantea la profesora Valle, nos quiere decir que se vendrán desafíos éticos enormes, porque ¿cómo nosotros nos podemos asegurar de que la automatización no deje a grandes sectores de trabajo económicos o de la población en pobreza? La pregunta sería, ¿cómo podríamos nosotros diseñar un sistema que no solamente haga las cosas eficientemente, sino que también promueva un bienestar generado al público? Bueno, continuando, también otro tema que se planteó en la conferencia fueron las máquinas épicas, una cuestión que se planteó. Según lo que comprendí, imaginamos un futuro donde la IA toma decisiones críticas en áreas como la justicia, la medida y la guerra. ¿Cómo podemos asegurarnos de que estas decisiones sean justas? O sea, ¿qué principios éticos deben guiar a las IAs, a su comportamiento, para que en situaciones complejas, donde no hay respuestas correctas, evidentes, reaccionen de acuerdo a principios? Porque claramente cada persona tiene, como lo había mencionado, beneficios humanos. Cada quien tiene sus propios principios, pero ¿qué principios debe seguir esta IA? La ética en la IA no es un tema que podemos dejar de lado. Necesitamos integrar ética desde las primeras etapas de su creación y desarrollo, o sea, fomentar la ética e integrarla en el desarrollo de la IA o de estas tecnologías desde su principio de creación. No se trata sólo de cumplir con normas, evitar escándalos, sino que construir un futuro serio, tecnológico, que respete y proteja los valores humanos, y no los prejuicios humanos y nuestro egoísmo. Bueno, finalmente, para terminar esto, me gusta ya cerrar con una reflexión sobre esta charla que nos invitó la profesora Valle a pensar sobre el mundo que estamos construyendo para las futuras generaciones. Es un hecho que la tecnología avanza a un ritmo muy rápido, pero tenemos que parar a considerar que estamos construyendo un mundo más justo, más equitativo, o que, sin darnos cuenta, nosotros ya estamos promoviendo las desigualdades existentes y creando nuevas formas de exclusión. Como estudiantes de ingeniería de sistemas, nosotros estamos en una posición única para cambiar el rumbo que tomará la tecnología en el futuro, pero como dicen, un gran poder conlleva una gran responsabilidad. Debemos ser conscientes de que cada línea de código que escribimos en un programa en Java, cada sistema que diseñamos, cada código que programa, tiene el poder de impactar en la vida de muchas personas, de millones de personas, un programa puede cambiar la vida de muchas personas. Por eso es que es muy crucial que nos sigamos preguntando cómo podemos usar la tecnología no solo para innovar y crear cosas increíbles y eficientes, sino cómo podemos usar la tecnología para crear un mundo mejor. Bueno, gracias por acompañarme en esta reflexión, espero que esta antigüedad les haya sido útil y que pues como yo, sigamos explorando todo esto de la tecnología y la épica, un tema muy interesante. Hasta la próxima.