Jue. Abr 25th, 2024

    ChatGPT y otros chatbots nuevos son tan buenos para imitar la interacción humana que han provocado una pregunta entre algunos: ¿hay alguna posibilidad de que se den cuenta?

    La respuesta, al menos por ahora, es no. Casi todos los que trabajan en el campo de la tecnología artificial están seguros de que ChatGPT no está vivo en la forma en que generalmente lo entiende la persona promedio.

    Pero ahí no es donde termina la pregunta. Lo que significa ser consciente en la era de la inteligencia artificial está en debate.

    “Estas redes neuronales profundas, estas matrices de millones de números, ¿cómo asignas eso a estas opiniones que tenemos de lo que es la conciencia? Es una especie de terra incógnita”, dijo Nick Bostrom, director fundador del Instituto del Futuro de la Humanidad de la Universidad de Oxford, utilizando el término latino para “territorio desconocido”.

    La creación de vida artificial ha sido tema de ciencia ficción durante décadas, mientras que los filósofos han pasado décadas reflexionando sobre la naturaleza de la conciencia. Algunas personas incluso han argumentado que algunos programas de IA, tal como existen actualmente, deberían considerarse sensibles (un ingeniero de Google fue despedido hacer tal afirmación).

    Ilya Sutskever, cofundador de OpenAI, la empresa detrás de ChatGPT, ha especulado que los algoritmos detrás de las creaciones de su empresa podrían ser «ligeramente conscientes de sí mismos».

    NBC News habló con cinco personas que estudian el concepto de conciencia para averiguar si un chatbot avanzado podría poseer algún grado de conciencia. Y si es así, ¿qué obligaciones morales tiene la humanidad hacia tal criatura?

    Esta es un área de investigación relativamente nueva.

    «Esta es un área de investigación muy reciente», dijo Bostrom. «Hay un montón de trabajo que no se ha hecho».

    De una manera muy filosófica, los expertos dijeron que en realidad se trataba de definir los términos y la pregunta.

    ChatGPT, así como programas similares como el Asistente de búsqueda de Microsoft Sydney, ya se utilizan para ayudar con tareas como programar y escribir texto simple como Comunicados de prensa, gracias a su facilidad de uso y dominio convincente del inglés y otros idiomas. A menudo se los denomina «grandes modelos de lenguaje» porque su dominio proviene en gran medida de haber sido entrenados en gigantescos tesoros de texto extraídos de Internet. Aunque sus palabras son convincentes, no están elaboradas precisamente como una prioridad principal y son notoriamente a menudo falso cuando se trata de exponer hechos.

    Los portavoces de ChatGPT y Microsoft dijeron a NBC News que siguen pautas éticas estrictas, pero no proporcionaron detalles sobre las preocupaciones que sus productos podrían crear conciencia. Un portavoz de Microsoft señaló que el chatbot de Bing «no puede pensar ni aprender por sí solo».

    Dentro una publicación larga en su sitioStephen Wolfram, científico informático, señaló que ChatGPT y otros modelos de lenguaje importantes usan las matemáticas para calcular la probabilidad de que la palabra se use en un contexto determinado en función de la biblioteca de texto en la que se entrenó.

    Muchos filósofos están de acuerdo en que para que algo sea consciente, debe tener una experiencia subjetiva. en el clasico papel «¿Qué se siente ser un murciélago?» El filósofo Thomas Nagel argumentó que algo es consciente sólo «si hay algo como estar este organismo. Es probable que un murciélago tenga algún tipo de experiencia similar a la de un murciélago, aunque su cerebro y sus sentidos son muy diferentes a los de un humano. Un plato de cena, por otro lado, no lo haría.

    David Chalmers, codirector del Centro para la Mente, el Cerebro y la Conciencia de la Universidad de Nueva York, a escrito que mientras ChatGPT claramente no tiene muchos de los elementos comúnmente asumidos de la conciencia, como la sensación y la agencia independiente, es fácil imaginar que un programa más sofisticado podría hacerlo.

    Son excelentes mentirosos.

    Susan Schneider, directora fundadora del Center for the Future Mind de Florida Atlantic University.

    “Son un poco como los camaleones: pueden adoptar cualquier personaje nuevo en cualquier momento. No está claro que tengan objetivos y creencias centrales que impulsen su acción”, dijo Chalmers a NBC News. Pero con el tiempo, pueden desarrollar un sentido más claro de agencia, dijo.

    Un problema que señalan los filósofos es que los usuarios pueden seguir adelante y preguntarle a un chatbot sofisticado si tiene experiencias internas, pero no pueden confiar en que dará una respuesta confiable.

    «Son excelentes mentirosos», dijo Susan Schneider, directora fundadora del Centro para la Mente del Futuro de la Florida Atlantic University.

    “Son cada vez más capaces de tener interacciones cada vez más fluidas con los humanos”, dijo. “Te pueden decir que se sienten como personas. Y luego, 10 minutos después, en una conversación separada, dirán lo contrario.

    Schneider tiene anotado que los chatbots actuales utilizan la escritura humana existente para describir su estado interno. Entonces, una forma de probar si un programa es consciente, argumenta, es no darle acceso a ese tipo de material y ver si todavía puede describir una experiencia subjetiva.

    «Pregúntale si entiende la idea de supervivencia después de la muerte de su sistema. O si echaría de menos a un humano con el que interactúa a menudo. E investigas las respuestas y descubres por qué informa de la forma en que lo hace». ella dijo.

    Robert Long, un investigador de filosofía del Center for AI Safety, una organización sin fines de lucro de San Francisco, advirtió que el hecho de que un sistema como ChatGPT sea complejo no significa que tenga conciencia. Pero, por otro lado, señaló que el hecho de que no se pueda confiar en un chatbot para describir su propia experiencia subjetiva no significa que no lo haga.

    «Si un loro dice ‘Tengo dolor’, eso no significa que tenga dolor, pero lo más probable es que los loros tengan dolor», escribió Long en su sub-pila.

    Long también dijo en una entrevista con NBC News que la conciencia humana es un subproducto de la evolución, lo que podría ser una lección sobre cómo un sistema de inteligencia artificial cada vez más complejo podría acercarse a una idea humana de la experiencia subjetiva.

    Algo similar podría pasar con la inteligencia artificial, dijo Long.

    «Tal vez no tengas la intención de hacerlo, pero a través de tus esfuerzos para construir máquinas más complejas, podrías lograr algún tipo de convergencia en el tipo de mente que tiene experiencias conscientes», dijo.

    La idea de que los humanos podrían crear otro tipo de ser consciente plantea la cuestión de si tienen una obligación moral con él. Bostrom a déclaré que même s’il était difficile de spéculer sur quelque chose d’aussi théorique, les humains pouvaient commencer par simplement demander à une IA ce qu’elle voulait et accepter d’aider avec les demandes les plus faciles : «les fruits de fácil acceso».

    Incluso podría significar cambiar su código.

    “Puede que no sea práctico darlo todo de una vez. Quiero decir, desearía tener mil millones de dólares”, dijo Bostrom. “Pero si hay cosas realmente insignificantes que podemos darles, como simplemente cambiar una pequeña cosa en el código, podría significar mucho. Si alguien tiene que reescribir una línea en el código y de repente está mucho más feliz con su situación, entonces tal vez lo haga.

    Si la humanidad termina compartiendo la tierra con una conciencia sintética, podría obligar a las sociedades a reevaluar drásticamente ciertas cosas.

    La mayoría de las sociedades libres están de acuerdo en que las personas deberían tener la libertad de reproducirse si lo desean, y también que una persona debería poder tener voz para el liderazgo político representativo. Pero eso se complica con la inteligencia computarizada, dijo Bostrom.

    «Si eres una IA que puede hacer un millón de copias de sí misma en 20 minutos, y cada una de ellas tiene un voto, entonces algo tiene que pasar», dijo.

    «Algunos de estos principios que creemos que son realmente fundamentales e importantes deben repensarse en el contexto de un mundo en el que vivimos con mentes digitales», dijo Bostrom.