III.F. Agentes de software inteligentes: Un caso especial del papel de esclavo
Los agentes de software inteligentes, en general, son programas informáticos que pueden ser lanzados en un sistema informático o en una red para realizar procesos en segundo plano, a menudo mientras el ordenador está realizando otro trabajo en primer plano. Estos «agentes» realizan tareas electrónicas para sus amos y también pueden aprender observando las actividades de sus amos. Los agentes tienen una misión y actúan de forma autónoma para completar una o varias tareas. Muchos agentes son, en efecto, también «secretos» porque el usuario no suele saber que están trabajando. La World Wide Web y otros sistemas en línea o interconectados han generado muchos agentes de este tipo. Algunos son locales y operan sólo en el ordenador en el que están alojados; otros son móviles y llegan o se desplazan a otros ordenadores. La mayoría se basa en algún tipo de programación de IA para llevar a cabo sus tareas. Los agentes reciben diversos nombres según las funciones que desempeñan. En el nuevo vocabulario de la IA en Internet se suele utilizar el término bot (abreviatura de robot) en lugar de agente. Se han desarrollado muchos tipos diferentes de bots.
Los chatbots se utilizan para entablar conversaciones en Internet. Los Shoppingbots son agentes que compran y localizan los mejores precios para los usuarios. Los Docbots y Jobots se utilizan para localizar médicos y empleos, respectivamente. Los musicbots buscan una pieza musical, un CD o un archivo de audio. Las «arañas» o spiderbots exploran la estructura de la Web y actúan sobre las páginas que encuentran realizando actividades como contarlas, identificarlas o indexarlas. Los motores de búsqueda dependen de las arañas. Los knowbots o mayordomos digitales -para usar el término de Nicholas Negroponte- realizan una serie de tareas que les asigna el usuario. Las cookies son pequeñas cadenas de símbolos que se comunican entre un navegador web y un servidor conectado. Residen en el disco duro del usuario. A petición de un servidor conectado, una cookie recoge información sobre lo que ha sido almacenado o recuperado por el navegador del usuario. Muchos sistemas de perfiles de clientes se basan en las cookies. Los virus son pequeños programas escritos para causar intencionadamente daños o interrupciones en un ordenador y se transmiten a través de discos infectados o conexiones en línea. Todos estos agentes inteligentes o bots y muchos otros se basan en principios descubiertos originalmente por los investigadores de IA.
Estos agentes inteligentes son también agentes morales porque sus actividades pueden perjudicar o ayudar a las personas o ambas cosas simultáneamente. Al igual que durante los siglos XVIII y XIX los mercaderes europeos enviaban partidas llamadas agentes a América y otras tierras lejanas para que realizaran trabajos para ellos, los usuarios envían agentes de software al ciberespacio para que realicen trabajos para ellos. Los agentes reciben instrucciones de sus «principios» o propietarios y luego actúan de forma autónoma. En concreto, una vez enviados a su misión, los agentes inteligentes operan, en su mayor parte, sin la intervención directa de humanos u otras personas. Realizan muchas actividades, como interactuar con otros agentes, incluidos los humanos, y percibir el entorno en el que operan para poder responder en consecuencia. Suelen ser proactivos, son diligentes en el sentido de que siguen trabajando en todo momento y, sin embargo, son capaces de realizar muchas tareas complejas. En consecuencia, los principios de los agentes como propietarios asumen gran parte de la responsabilidad de las acciones de un agente mientras éste siga las instrucciones.
En su mayor parte, el trabajo de los agentes inteligentes se considera beneficioso. Por ejemplo, los agentes de software inteligentes prometen ayudar a lidiar con la sobrecarga de información, especialmente en Internet. Entre las tareas mundanas o tediosas que los agentes pueden llevar a cabo se encuentran las siguientes: gestionar el correo electrónico, minar bases de datos, organizar interfaces informáticas, escanear artículos, personalizar la adquisición de datos como la búsqueda en fuentes de noticias e informes para proporcionar la información que los usuarios desean, organizar y programar reuniones, gestionar redes y ayudar a mapear los cerca de mil millones de páginas de información que hay actualmente en Internet. Sin embargo, en el proceso de lograr estos beneficios y el propio secreto en el que generalmente operan, los agentes inteligentes plantean importantes cuestiones morales.
Los bots de búsqueda y conocimiento, por ejemplo, pueden utilizarse con fines de minería de datos, extrayendo piezas de información enterradas o previamente desconocidas de grandes bases de datos. Aplicados a la información personal, pueden utilizarse para elaborar un perfil de los individuos y, en consecuencia, situarlos en alguna categoría de consumo o grupo de riesgo que desconocen y, lo que es más importante, que puede tener implicaciones sociales asociadas que les perjudiquen o estigmaticen. Por ejemplo, a una persona con un excelente historial crediticio se le podría denegar un préstamo porque un bot la asignara a un determinado grupo de riesgo como resultado de su trabajo de extracción de datos. Así, cuando se aplican a la información personal, los bots pueden utilizarse para invadir o comprometer la privacidad de las personas. Los derechos de propiedad intelectual también pueden verse amenazados por los bots. Como revelan los casos judiciales pendientes contra la empresa de intercambio de música en línea Napster (alrededor de septiembre de 2000), los bots musicales pueden ser percibidos como ladrones por los titulares de los derechos de autor de la música.
Los bots de compra crean otros problemas morales. Por ejemplo, una profesora del MIT Media Lab, Pattie Maes, desarrolló un bot llamado «Firefly» que la ha hecho famosa y la está haciendo rica. (Microsoft la compró.) Firefly se ajusta a los intereses de la gente en objetos como películas, música y similares. Otras aplicaciones similares de la tecnología de agentes son Jango (ahora propiedad de Excite) y «RoboShopper» de Anderson Consulting. Sin embargo, los experimentos con estos robots de compra han planteado algunas cuestiones éticas cruciales: ¿Quién es responsable de las compras de un agente? ¿Es válido el contrato de un agente? ¿Qué pasa con otras cosas que puede hacer un agente en el cumplimiento de su misión? De hecho, ¿se puede confiar en un agente? ¿Cómo mantiene un propietario o principio humano a un agente al tanto de sus intereses cambiantes y de sus transacciones fuera de línea? ¿Quién es el responsable de esta comunicación? Y lo que es más importante, la posibilidad de que el agente falle, haga un mal uso o sea cooptado está siempre presente. Los agentes pueden arrebatar el control al usuario y pasarlo a su propietario y, por tanto, pueden ser la fuente de muchos perjuicios. De hecho, puede ser necesario emplear otras técnicas de IA para contrarrestar las actividades adversas de un agente. Los «servidores de reputación» que pueden verificar la credibilidad de un agente y ayudar a crear confianza son una posibilidad. A un nivel sistémico más amplio, los experimentos preliminares de IBM y otros institutos de investigación indican que el uso generalizado de bots en el comercio electrónico puede afectar materialmente al funcionamiento de los mercados económicos. Esto, por supuesto, plantea cuestiones sobre la justicia y la equidad en los mercados y la mejor manera de gestionar éticamente la transición de un mercado físico a los mercados orientados a los agentes en el ciberespacio.