Para algunos sectores, esta tecnologÃa debe tener limitaciones éticas y lógicas
- La Inteligencia Artificial permite cada vez más posibilidades, actuando en todo tipo de ámbitos.
- Expertos y profesionales aseguran que esta tecnologÃa debe tener un freno, para evitar problemas mayores en el futuro.
- La idea de regular la IA cuenta con aliados y detractores que respaldan su posición con argumentos cientÃficos.
Las nuevas tecnologÃas avanzan a un ritmo cada vez más veloz. En el caso de la Inteligencia Artificial, esta comienza a ganar terreno.
En algunos casos, la IA se presenta en elementos de la vida cotidiana como los teléfonos móviles, o en coches autónomos con los que poco a poco el mundo comienza a familiarizarse. Pero estas no son las únicas opciones para esta tecnologÃa.
En diferentes ámbitos, la IA puede usarse para tomar decisiones. Esta tecnologÃa puede determinar qué estrategia de Marketing es más rentable, o reducir una larga lista de candidatos para un empleo a tan solo. Pero además, puede usarse de modo destructivo, pues de hecho Rusia lleva años preparando robots capaces de actuar como soldados en caso de una guerra.
Ante esta realidad, un debate ha tomado protagonismo: ¿Es necesario regular la Inteligencia Artificial? ¿Cómo debe realizarse esta regulación.
Elon Musk, el fundador de Tesla y SpaceX, creador de los transportes del futuro y uno de los máximos emprendedores del mundo es un claro ejemplo de postura proactiva ante la necesidad de regular la IA. Este ha sostenido en varias oportunidades lo peligroso que puede ser evitar una regulación.
Por qué regular la IA
- Porque serÃa completamente caótico que cada empresa o fabricante se comporte de la forma en que desee con su IA.
- Porque la falta de regulación favorece la toma de acciones por parte de empresas del sector privado, que aprovechan este vacÃo legal para incrementar sus ganancias.
- Porque la total libertad de uso puede favorecer acciones poco éticas.
¿Cómo debe regularse el uso de la IA?
Hasta el momento, son las compañÃas tecnológicas que crean las diferentes formas de Inteligencia Artificial las que se ocupan de los parámetros éticos que requieren las mismas. Es decir, son las propias empresas las que establecen los lÃmites legales.
Por lo general, cuando se trata de tecnologÃas peligrosas como por ejemplo las armas, la tecnologÃa de clonación o la energÃa nuclear, los lÃmites provienen de organismos externos. Esto limita los posibles abusos y permite apostar por el bien común. Por ello, lo más recomendable es que no sean las compañÃas tecnológicas las responsables de tomar estas decisiones.
Además, serÃa necesario establecer de forma clara la responsabilidad en caso de daños o accidentes. Para ello, se debe diferenciar entre lo realizado por el diseñador, el fabricante, el propietario e incluso la IA.
Para aquellas posturas negativas sobre la automatización, la regulación de la IA deberÃa incluir limitaciones sobre el campo de acción de los seres humanos y las posibilidades de los robots en cada profesión.
La tarea promete ser ardua y repleta de discusiones. Pero aún asÃ, se hace extremadamente necesaria considerando que la IA gana cada vez más espacio, pasando a tomar decisiones que hace algunos años se limitaban al ámbito de la intuición humana o instancias judiciales.
El gran problema para lograr una regulación en dicho campo es, precisamente, que conocemos tan solo una parte de lo que este representa y no la totalidad de las posibilidades que la IA puede ofrecer.
Fuente: Universia