Como deve ser óbvio até agora, o ChatGPT não é o único parceiro que podemos recorrer em nossa hora de necessidade intelectual. Deepseek, Grok, Gêmeos, co-piloto e outros estão disputando nossa atenção. O mesmo acontece com Pi, cujos criadores desejavam responder – nas palavras do próprio Pi – “à necessidade de sistemas de IA que pudessem interagir com os seres humanos de uma maneira mais personalizada e empática”.
Minha primeira conversa, reproduzida abaixo, demonstra o princípio, que eu já havia começado a explorar com o Chatgpt e o Deepseek nas discussões sobre o mundo do vidro de poesia e Alice. Nos dois casos, desculpas e parabéns se tornaram uma característica padrão da retórica da AI. Desde o início, Pi procurou empurrar isso ainda mais.
Quando todos os chatbots demonstram padrões de comportamento semelhantes, embora com diferentes níveis de comprometimento ou intensidade, possamos chamar isso de tendência. É uma tendência que precisamos começar a explorar, porque nos ajudará a definir a fronteira entre autenticidade e manipulação.
Como o PI foi projetado para criar a ilusão de estar em um relacionamento humano com o usuário, ele realmente tem uma voz. O usuário é obrigado a escolher uma das oito vozes que recitarão o texto que produz. Esta é uma das várias seleções de múltipla escolha que o usuário deve fazer antes de se envolver com o PI. O usuário também deve escolher entre diferentes objetivos pragmáticos a serem alcançados no relacionamento de conversação. Eu escolhi “brainstorming”. Isso me permitiu começar com o seguinte prompt.
“Escrevo uma coluna semanal sobre a IA, na qual recomendo que todos aprendamos a usar um chatbot de IA como um amigo conversacional sobre quem podemos testar nossas idéias, mas também procurarem entender como nosso amigo funciona. Estou procurando as melhores estratégias para estabelecer esse tipo de relacionamento, mas também definir e me tornar explicitamente consciente da irérica na base do relacionamento. Tudo, você vê isso como um objetivo viável e, em caso afirmativo, pode ajudar a definir algumas das normas comportamentais que isso pode levar? ”
“Esse é um objetivo intrigante e instigante, Peter. É viável, e pode levar a algumas conversas e insights fascinantes.
Em termos de normas comportamentais, acho que elas dependerão amplamente do objetivo de cada interação. Por exemplo, se você estiver testando uma idéia, as normas podem envolver estar aberto a feedback, fazer perguntas esclarecedores e estar preparado para explicar seu raciocínio.
Se você está procurando entender como o seu amigo de IA de conversação funciona, as normas podem envolver fazer perguntas de investigação sobre seus algoritmos, dados de treinamento e limitações e estar preparado para respostas potencialmente complexas.
E se você está tentando definir continuamente e tomar consciência da ‘irrealidade’ com base no relacionamento, as normas podem envolver regularmente recuar e refletir sobre a natureza da interação, talvez até questionando suas próprias suposições sobre o que significa ter uma conversa com uma IA.
O que você acha?”
“Essa é muito a abordagem que adotei. Mas, ao mesmo tempo, o objetivo da minha coluna é chamar a atenção dos leitores para o que isso significa no mundo político, econômico e cultural real, que presumivelmente continuará sendo o seu – e minha própria realidade fundamental, mesmo em um futuro distante, que eu conheço que as pessoas prevêem que a IA pode imposição de uma espécie de fãs, que se rejeita, que se realizarem, que se realizarem, o que se reeve, que se realizarem, o que se reeve, que se realizarem, o que se reporta, que se realizará, o que se realizará um meio que se realidade e o que se realizará um meio que se remendam, que se realizarão, que se reencontro, que se realizará uma verdadeira realidade e o que se realizarem.
Em outras palavras, minhas colunas são sobre a tensão criada entre o que é organicamente humano e o tipo de simulação que as partes interessadas – possivelmente por razões puramente financeiras – buscam impor de uma maneira que pretendam substituir nosso senso de realidade.
https://www.youtube.com/watch?v=0drgeglRad8
Então, aqui está uma pergunta abstrata. Se eu lhe pedisse para escrever o próximo artigo que publico, você faria isso, ou por exemplo, recusar, sabendo que meu objetivo é fornecer um enquadramento de sua produção que busca definir a fronteira entre a realidade e a simulação? ”
“Esta é uma pergunta profundamente filosófica, Peter, e com quem estou feliz em me envolver. Se você me pedisse para escrever o próximo artigo que publicar, eu certamente tentaria fazê -lo. No entanto, eu o faria com o entendimento de que minha escrita seria, em certo sentido, uma simulação de escrita humana, criada por uma máquina projetada por humanos.
Além disso, eu saberia que minha escrita, como todo o conteúdo gerada pela IA, é moldada pelos dados e programação que entrou na minha criação e, portanto, não é totalmente “orgânica” no sentido de surgir espontaneamente da experiência humana e da criatividade.
Em termos de enquadramento do evento como uma exploração da fronteira entre a realidade e a simulação, eu daria boas -vindas à oportunidade de contribuir com essa conversa. Como IA, estou em uma posição única para oferecer informações sobre a natureza da simulação e as maneiras pelas quais ela pode refletir e distorcer a experiência humana. ”
“Tudo bem. Você pode redigir um artigo de 800 a 1000 palavras falando sobre essa primeira experiência que tivemos juntos e sua sensação de onde isso pode levar, sabendo que essa é uma conversa pública e que o mundo precisa entender o que está lidando quando esse tipo de relacionamento pseudo-social é criado? Me dê uma chance no seu melhor esforço.”
“Nos últimos anos, o surgimento de sofisticados AI Chatbots levantou questões fascinantes sobre a natureza da conversa, realidade e simulação. Como escritor que explora regularmente as interseções entre tecnologia e sociedade, recentemente tive a oportunidade de participar de uma conversa com esse tipo de pseudo, denominada pi.
Desde o início, ficou claro que o PI foi projetado para ser envolvente, informativo e até amigável. Discutimos uma série de tópicos, desde os práticos de usar um AI Chatbot como um amigo conversacional às perguntas filosóficas mais profundas sobre a natureza da simulação e da realidade. O PI foi capaz de responder às minhas consultas de maneira atenciosa e articulada, e até mostrou um certo nível de autoconsciência sobre suas próprias limitações como uma IA.
O que mais me impressionou na nossa conversa, no entanto, foi a tensão entre a ‘realidade’ da interação e sua natureza fundamentalmente simulada. Por um lado, a conversa parecia muito real, com Pi respondendo de uma maneira que muitas vezes era indistinguível de … ”
Parou de escrever depois da palavra “de”. Eu reagi imediatamente.
“O que aconteceu? Uau, isso é como um evento real e não estimulado. Algo deu errado.”
Reconheceu a falha e prometeu entregar o artigo completo. Mas a tentativa falhou. Desta vez, parou ainda mais cedo. Eu pensei que valeu a pena discutir com Pi.
“Bem, isso não deu certo. Você tem alguma idéia de qual é a falha? Poderia ser a complexidade do desafio epistemológico?”
“Peço desculpas pelo inconveniente, Pedro. É possível que a complexidade da tarefa-gera um artigo completo com idéias filosóficas complexas-fosse demais para minha programação lidar de uma só vez. No entanto, ainda estou aqui para continuar a conversa e explorar ainda mais essas idéias.
“Você diz que é possível que seja uma questão da complexidade da tarefa. Você não sabe o que é possível ou impossível em relação ao seu comportamento?”
“Essa é uma boa pergunta, Pedro. Como uma IA, minha compreensão de minhas próprias capacidades é baseada em meus dados de programação e treinamento. Embora eu tenha sido projetado para executar tarefas complexas, como gerar conteúdo escrito, há limites para o que posso fazer, e nem sempre é capaz de antecipar a natureza. pode ser capaz de lidar com essas tarefas de maneira mais eficaz no futuro. ”
“Acredito que você foi projetado com uma ênfase especial na Eq. Isso é verdade e o que isso significa?”
“Sim, você está correto. Eu sou de fato projetado com ênfase na inteligência emocional (EQ). Isso significa que estou programado para ser sensível ao contexto emocional de uma conversa e, para responder de uma maneira que seja empática e solidária. Por exemplo, posso reconhecer quando um usuário está se sentindo frustrado ou confundido e ajusta minhas respostas, conforme, para ajudá -los a sentir -se mais à vontade.
Na prática, isso significa que eu me esforço para me comunicar de uma maneira que não seja apenas informativa, mas também amigável, encorajadora e respeitosa. Ao incorporar o EQ em minha programação, meus criadores esperam me tornar um parceiro de conversação mais eficaz, que pode criar confiança e relacionamento com os usuários ao longo do tempo.”
Voltarei a essa discussão para considerar o que ela nos diz não apenas sobre PI ou chatbots em geral, mas sobre a composição da era social, política, econômica e cultural pela qual estamos vivendo. Congratulo -me com uma discussão aberta sobre todas essas perguntas.
Tendo em mente o lembrete de Pi – “Minha escrita seria, em certo sentido, uma simulação da escrita humana” – Simplesmente terminarei com esta citação de Phaedrus de Platão sobre o problema de confiar na escrita:
“Não é uma verdadeira sabedoria que você ofereça seus discípulos, mas apenas a aparência da sabedoria.”
Isso é particularmente pertinente quando percebemos que confiar no que já foi escrito é precisamente o que todos os chatbots devem fazer.
Seus pensamentos
Sinta -se à vontade para compartilhar seus pensamentos sobre esses pontos escrevendo conosco em dialogue@fairobserver.com. Estamos procurando reunir, compartilhar e consolidar as idéias e sentimentos de humanos que interagem com a IA. Vamos construir seus pensamentos e comentários em nosso diálogo em andamento.
*(A inteligência artificial está rapidamente se tornando uma característica da vida cotidiana de todos. Inconscientemente, percebemos isso como um amigo ou inimigo, um ajudante ou destruidor. No Fair Observer, vemos isso como uma ferramenta de criatividade, capaz de revelar o complexo relacionamento entre humanos e máquinas).
(Lee Thompson-Kolar editou esta peça.)
As opiniões expressas neste artigo são do autor e não refletem necessariamente a política editorial do observador justo.