O problema do alinhamento humano-IA | TEMPO
Estamos agora na era da IA, onde cada semana traz outro recurso ou tarefa que a IA pode realizar. Mas dado o quão avançado já estamos, é ainda mais essencial diminuir o zoom e fazer perguntas maiores sobre para onde estamos indo, como tirar o melhor proveito desta tecnologia à medida que ela evolui e, de fato, como tirar o melhor proveito de nós mesmos à medida que co-evoluímos.
Houve um momento revelador recentemente quando Sam Altman apareceu no podcast de Tucker Carlson. Carlson pressionou Altman sobre os fundamentos morais do ChatGPT. Ele argumentou que a tecnologia tem uma espécie de componente religioso ou espiritual básico, uma vez que presumimos que ela é mais poderosa que os humanos e recorremos a ela em busca de orientação. Altman respondeu que para ele não há nada de espiritual nisso. “Portanto, se nada mais é do que uma máquina e apenas o produto de seus insumos”, diz Carlson. “Então as duas questões óbvias são: quais são os insumos? Qual é a estrutura moral que foi colocada na tecnologia?”
Altman então se refere à “especificação do modelo”, o conjunto de instruções que um modelo de IA recebe e que governará seu comportamento. Para o ChatGPT, diz ele, isso significa treiná-lo na “experiência coletiva, conhecimento e aprendizados da humanidade”. Mas, acrescenta, “então temos que alinhá-lo para se comportar de uma forma ou de outra”.
E isso, claro, leva-nos ao famoso problema de alinhamento – a ideia de que, para nos protegermos contra o risco existencial de a IA assumir o controlo, precisamos de alinhar a IA com os valores humanos. Na verdade, o conceito remonta a 1960 e ao pioneiro da IA, Norbert Wiener, que descreveu o problema de alinhamento desta forma: “Se utilizarmos, para atingir os nossos objectivos, uma agência mecânica em cuja operação não podemos interferir de forma eficiente… é melhor termos a certeza de que a finalidade colocada na máquina é a finalidade que realmente desejamos”.
Mas, na verdade, existe um problema de alinhamento maior que remonta a muito antes de 1960. Para alinhar a IA com os valores humanos, nós próprios precisamos de ser claros sobre os valores universais que atribuímos. O que são nosso entradas? Qual é a especificação do nosso modelo? O que são nós nos treinando para sermos capazes de levar uma vida significativa?
Estas são as perguntas que precisamos responder antes de decidirmos quais informações queremos que a IA utilize. Mesmo que pudéssemos alinhar perfeitamente a IA com a situação atual da humanidade, o resultado seria abaixo do ideal. Portanto, agora é o momento de esclarecer os nossos valores antes de construirmos uma tecnologia destinada a incorporá-los e refleti-los.
Porque neste momento estamos vivenciando um profundo desalinhamento. No nosso mundo moderno, perdemos a ligação com a base espiritual sobre a qual as nossas civilizações, tanto ocidentais como orientais, foram construídas. Há séculos que vivemos no seu resplendor, mas agora até o brilho diminuiu e estamos desancorados e desamarrados.
Essa base começou a desmoronar lentamente com o Iluminismo e a Revolução Industrial, mas continuou a basear-se nestas verdades eternas. Estávamos expressando-os – e até mesmo acreditando neles – menos do que antes, mas ainda éramos guiados por eles. Mas agora que a ligação foi cortada para treinar a IA para se alinhar com os valores humanos, primeiro precisamos de os escavar e de nos reconectarmos com eles.
Em seu novo livro, Contra a Máquina: Sobre a Desconstrução da HumanidadePaul Kingsnorth explora como cada cultura é construída sobre uma ordem sagrada. “É claro que isso não precisa ser uma ordem cristã”, escreve ele. “Poderia ser islâmico, hindu ou taoísta.” O Iluminismo nos desconectou dessa ordem sagrada, mas, como diz Kingsnorth, “a sociedade não percebeu isso porque os monumentos da antiga ordem sagrada ainda estavam de pé, como as estátuas romanas após a queda do Império”. O que vemos é o preço que as sociedades pagam quando essa ordem cai: “revolta em todos os níveis da sociedade, desde o nível da política até ao nível da alma”.
Não é exatamente isso que está acontecendo agora? “Isso explicaria o teor estranho, tenso, devastador e frustrante da época”, escreve Kingsnorth.
Em sua conversa com Carlson, Altman falou sobre a IA sendo treinada na “experiência coletiva” da humanidade. Mas será que estamos realmente a aceder à plena experiência colectiva de ser humano?
À medida que construímos uma tecnologia transformacional que vai mudar tudo nas nossas vidas, precisamos de garantir que a treinamos nos valores fundamentais e imutáveis que nos definem como seres humanos.
Share this content:



Publicar comentário