05 abril, 2018

Em parceria as CEBs e o COMIDI realizarão "Estudo do Marco Referencial Missionário" da Arquidiocese de Maringá, nas oito regiões patoral.


Em parceria as CEBs e o COMIDI realizarão "Estudo do Marco Referencial Missionário" da Arquidiocese de Maringá, nas oito regiões patoral.

Estará presente, o assessor do COMIDI padre Thiers Queiroga Alves e Melo, o assessor das CEBs padre Genivaldo Ubinge e Lucimar Moreira Bueno (Lúcia) assessora leiga e membros da coordenação arquidiocesana das Comunidades Eclesiais de Base, as CEBs e do Conselho Missionário Diocesano, o COMIDI.

Após a acolhida, o momento de oração será pela Escola de Evangelização Santo André.

O estudo será conduzido pelos padres assessores.

Vimos que a melhor forma de otimizar a dimensão missionária em nossa Arquidiocese é implantando e fortalecendo o COMIPA – que já é proposta do 24º PAE – em cada paróquia, partindo da estrutura que já existe: as CEB’s.

A maioria das nossas paróquias já está organizada a partir das CEB’s. 

Cada CEB’s tem seu coordenador/a, que, ajudado pelos que fazem o CPC (Conselho Pastoral da Comunidade), desenvolve as propostas firmadas pelo CPP (Conselho Pastoral Paroquial), do qual é membro, e anima a comunidade a tornar-se cada vez mais discípula e missionária de Jesus Cristo. 

Assim, propomos que o/a coordenador/a de cada CEB’s, ou outra pessoa indicada por ele e confirmada pelo pároco seja membro efetivo do COMIPA.

Igualmente, em algumas paróquias, já existe uma “certa” organização de COMIPA. A esse grupo existente, os/as coordenadores/as das CEB’s serão inseridos e assim, será efetivado o Conselho Missionário Paroquial.

Essas propostas encontra-se no "Marco Referencial Missionário" da Arquidiocese de Maringá, apresentada na reunião do clero e por esses acolhidos. 

Para esse momento convidamos:

- Todas/os as/os coordenadoras/res de cada CEBs (setores, capelas) das paróquias.

- Em algumas paróquias, já existe uma "certa” organização de COMIPA, esses também são convidados.

Segue as datas do estudo em cada região pastoral:

- REGIÃO PASTOAL JANDAIA DO SUL
08/04/2018  - Domingo
08h30  às  11h30
Paroquia  São João Batista - Jandaia do Sul

- REGIÃO PASTORAL CATEDRAL
10/04/2018 – Terça-Feira
20h00 às 22h00
Paroquia Menino Jesus de Praga e São Francisco Xavier
Sala São Lucas

- REGIÃO PASTORAL SANTA CRUZ
15/04/2018 – Domingo
08h30  às  11h30
Paroquia São Sebastião - Mandaguaçu

- REGIÃO PASTORAL PARANACITY
22/04/2018 – Domingo
14h às 16h30
Centro Catequetico - Nova Esperança

- REGIÃO PASTORAL CASTELO BRANCO
29/04/2018 - Domingo
14h às 16h30
Paroq. N.Sra. Mãe de Deus – Pres. Castelo Branco

- REGIÃO PASTORAL SÃO JOSÉ OPERÁRIO
15/05/2018 – Terça-Feira
20h00 às 22h00
Paróquia São José Operário

- REGIÃO PASTORALNOSSA SENHORA APARECIDA
25/05/2018 – Sexta-Feira
20h00 às 22h00
Paróquia Santo Antonio de Pádua

- REGIÃO PASTORAL NOSSA SENHORA DAS GRAÇAS
27/05/2018 – Domingo
08h30  às  11h30
Paróquia São Miguel - Cidade de Maringá

Por que escrever um romance se você pode muito bem escrever um programa de computador? Chatbots e o futuro da literatura


"Se a máquina conseguir manter uma conversa por escrito com o interrogador, sem que o interrogador possa determinar se está conversando com uma pessoa ou uma máquina, então a máquina passa no “teste de Turing” – ela vence no “jogo da imitação”. Vejam que agora é irrelevante a pergunta sobre se a máquina tem consciência ou não, se ela tem sentimentos ou não, se ela tem uma vida mental. Tudo o que importa é que a máquina seja capaz de “imitar” uma conversa por escrito, tal como fazemos quando usamos o WhatsApp para conversarmos com alguém", escreve Marcelo de Araujo, professor e pesquisador da Universidade Federal do Rio de Janeiro e da Universidade do Estado do Rio de Janeiro.

Eis o artigo.

O livro Androides sonham com carneiros elétricos?, de Philip K. Dick, completou 50 anos este mês. A obra ficou mais conhecida pela adaptação para o cinema como Blade Runner, em 1982. ELIZA, de Joseph Weizenbaum, completou 50 anos também. Pouca gente ainda se lembra: ELIZA foi o primeiro programa de computador capaz de manter uma conversa com seres humanos. Mas o que essas as duas obras podem ter em comum além da idade? A primeira é uma obra de ficção sobre robôs. A segunda é um robô inspirado numa obra de ficção. Tanto Androides quanto ELIZAlevantam questões sobre nossa relação com as máquinas. As duas obras tratam da pergunta sobre até que ponto programas de computador poderiam se tornar tão inteligentes a ponto de se passarem por seres humanos. Tanto uma quanto a outra, com outras palavras, nos levam a especular se não poderíamos criar um dia máquinas que possam realmente pensar, ou que pelo menos sejam capazes de passar no famoso “teste de Turing”.
teste de Turing foi proposto pelo filósofo e matemático Alan Turing em um artigo de 1950, muito embora ele não utilize o próprio nome para se referir ao teste. A expressão que ele utiliza no artigo é “jogo da imitação”. A pergunta que Turing se coloca, logo no início do texto, é se “máquinas podem pensar”. A primeira dificuldade que a pergunta envolve é sabermos com precisão o que significa pensar. Para dizermos que alguma coisa pensa é preciso que ela tenha consciência, que ela tenha sentimentos ou uma espécie de vida mental? Cada pessoa pode estar inteiramente certa de que ela mesma tem consciência. Mas como eu posso saber, com absoluta certeza, se outras coisas além de mim também pensam, se elas também têm uma vida mental? Eu não posso ver ou sentir diretamente os pensamentos de outras pessoas. Eu não vejo ou sinto a consciência delas. Tudo que eu posso fazer é observar se elas se comportam como se também tivessem uma vida mental. Diante dessa dificuldade, Turing sugere então uma reformulação do problema, e um método de solução. Ao invés de se perguntar se máquinas pensam, a questão passa a ser se máquinas são capazes de “imitar” de modo convincente o comportamento de seres humanos naquelas situações em que as pessoas conversam, ou seja, quando elas dão uma indicação pública de que estão pensando. Turing propõe então como método – para sabermos se máquinas pensam – o “jogo da imitação”.
Uma pessoa, o “interrogador”, deve conversar com o outro jogador e se decidir, ao final de cinco minutos, se o outro jogador é uma pessoa de verdade ou um programa de computador. Os dois jogadores devem estar em locais separados, e a conversa entre eles deve ocorrer por escrito. Turing chega mesmo a propor que, em circunstâncias ideais, os jogadores deveriam utilizar um “teletipo” (teleprinter) para realizar a conversa. Não deve ter ocorrido a Turing, na época em que escreveu o artigo, que e-mailsSMSWhatsApp, e o chat do Facebook se tornariam um dia o método predominante de conversação entre as pessoas. O jogo da imitação é, de certa forma, a condição humana agora.
Se a máquina conseguir manter uma conversa por escrito com o interrogador, sem que o interrogador possa determinar se está conversando com uma pessoa ou uma máquina, então a máquina passa no “teste de Turing” – ela vence no “jogo da imitação”. Vejam que agora é irrelevante a pergunta sobre se a máquina tem consciência ou não, se ela tem sentimentos ou não, se ela tem uma vida mental. Tudo o que importa é que a máquina seja capaz de “imitar” uma conversa por escrito, tal como fazemos quando usamos o WhatsApp para conversarmos com alguém. Turing sugeriu, na época em que publicou o artigo, que em menos de 50 anos computadores passariam no teste:
“Acredito que daqui a aproximadamente cinquenta anos será possível programarmos computadores (…) para fazê-los jogar o jogo da imitação tão bem que um interrogador mediano não terá mais do que setenta por cento de chance de identificar corretamente após cinco minutos de perguntas.” [1]
Turing errou por pouco: foi só em junho de 2014, sessenta anos após a publicação do artigo, que um programa de computador chamado Eugene Goostman se mostrou capaz de jogar – e também de vencer – o jogo da imitação. Programas como Eugene Goostman são conhecidos como chatbots.
O primeiro chatbot de sucesso foi ELIZA, criado por Weizenbaum em 1966. O nome é uma homenagem à personagem Eliza Doolittle, da peça Pygmalion, de Bernard Shaw. Na peça, Eliza é uma vendedora de flores que aos poucos aprende a falar inglês tão bem que as outras pessoas a tomam por uma lady da alta aristocracia. A ideia de Weizenbaum era que, assim como a Eliza da peça, a ELIZA escrita em linguagem de programação também poderia se exprimir de modo cada vez mais convincente. Para isso, tal como ocorre na peça, ela precisaria de um “professor”, ou seja, de um programador que vai ampliando seu vocabulário e estoque de frases. Mas hoje, graças a tecnologias como machine learning, programas como ELIZA se tornaram autodidatas. Chatbotscomo AlexaCortanaSiri, ou Tay agora aprendem e evoluem diretamente com o input do usuário. Já há também, hoje em dia, milhões de bots que se passam por pessoas nas redes sociais influenciando no resultado de eleições.
Em função das limitações tecnológicas da época, ELIZA era um pouco repetitiva e por isso nunca passou no teste de Turing. Mas isso não impediu que muitas pessoas levassem ELIZA a sério e contassem para ela detalhes de sua vida privada. No livro O Poder do Computador e a Razão Humana, de 1976, Weinzenbaum conta que, certo dia, a sua secretária, que evidentemente sabia que ELIZA era só um programa de computador, perguntou se ele não poderia deixar a sala para ela pudesse conversar a sós com ELIZA. Weinzenbaum ficou preocupado:
“Eu fiquei assustado ao ver o quão rapidamente e o quão profundamente as pessoas que conversavam com ELIZA se tornavam emocionalmente envolvidas com o computador.” [2]
Quando Eugene Goostman passou no teste de Turing poucas pessoas se deram conta de que o chatbot vencedor não era só um programa. Eugene Goostman, assim como ELIZA, era antes de qualquer coisa um personagem, uma obra de ficção escrita em linguagem de programação. Um chatbot convincente deve ter personalidade, ele ou ela deve ter crenças, dúvidas, desejos. Do diálogo com um chatbot devemos ser capazes de estimar a sua idade, seu nível de instrução, se é homem ou mulher. É claro que em cinco minutos de conversa não podemos saber tudo sobre nosso interlocutor, seja ele real ou ficcional. Mas a leitura de um conto ou romance também não é muito diferente.
É preciso ler as primeiras páginas de uma obra literária para formarmos aos poucos uma imagem de quem são seus personagens. Se o texto for bem escrito, e os personagens convincentes, continuaremos então a leitura. Chatbots convincentes, da mesma forma que personagens de um conto ou romance, devem ser capazes de nos engajar numa conversa e de criar em nós a ilusão de que são alguém de verdade, mesmo que nós já saibamos de antemão que a “pessoa” em questão é apenas um personagem, uma obra de ficção. Passar no “teste de Turing”, por isso, a meu ver, não significa conseguir enganar o interlocutor. Nenhum romance é bom porque consegue enganar o leitor e se passar por um relato verídico, mas por criar de modo elegante e criativo essa ilusão de verdade. Passar no teste de Turing, para mim, significa ser capaz de criar essa espécie de ilusão consentida.
O sucesso de Eugene Goostman no teste Turing, portanto, não se deveu à inteligência de suas respostas, mas à capacidade de, durante cinco minutos, ter criado a ilusão – consciente ou não – de que ele era uma pessoa real: um menino de 13 anos, nascido na Ucrânia, dono de um porquinho da Índia. Um chatbot convincente, assim como personagens de um romance, tem de manter uma narrativa consistente ao longo da conversa. Num texto de 2008, os criadores de Eugene Goostman chamam atenção para essa relação que há entre chatbots e obras literárias:
“Tenha em mente que ninguém gosta de conversar com gente chata. Mesmo que seu chatbot passe no teste dando um monte de repostas vagas e ‘profundas’, não fique surpreso se as pessoas enjoarem de conversar com a sua criatura por mais de dez minutos. Ao criar um chatbot, você não escreve um programa, você escreve um romance. Você imagina uma vida para seu personagem desde o início – a começar pela infância dele (ou dela) que vai até o momento presente, conferindo-lhe características pessoais únicas – opiniões, pensamentos, medos, manias. Se o seu chatbot se tornar popular e as pessoas se mostrarem dispostas a falar com ele por horas, dia após dia, talvez você devesse pensar em uma carreira de escritor, ao invés de ser um programador.” [3]
Para os criadores de Eugene Goostman, portanto, uma pessoa não deveria desperdiçar seu talento literário criando chatbots. Seria melhor para escrever um romance.
No futuro, é claro que as pessoas continuarão escrevendo contos e romances, e haverá com certeza também um público para ler essas obras. Mas a pergunta é se contos e romances não podem vir a ter o mesmo destino de sonetos, óperas, ou filmes mudos em preto e branco. Ainda admiramos a lírica de Camões e Bocage; os filmes de Chaplin e Eisenstein; ou novas encenações das óperas de VerdiWagner, ou Bizet. Mas sonetos, filmes mudos, e óperas já não são – há muito tempo – as mídias correntes para a expressão de novas ideias, para a discussão de temas prementes, para a crítica à cultura de nosso tempo. O romance e o conto são gêneros bastante recentes e não há nenhuma razão para rejeitarmos de antemão a suposição de que, no futuro, contos e romances passem a ser lidos com a mesma reverência que dispensamos hoje em dia a certas formas culturais do passado, mas sem que, ainda assim, nos sintamos motivados a abraçar essas formas antigas para a expressão de nossas próprias ideias.
Ainda haverá lugar para escritoras e escritores no futuro? Acredito que sim, mas eles terão de se reinventar e talvez criar novos veículos para a produção de ficção. A criação de chatbots – contra a sugestão proposta pelos criadores de Eugene Goostman – talvez seja uma opção. No futuro, quem sabe, gente como Philip K. Dick não estará mais publicando histórias de ficção científica, mas escrevendo as linhas do programa de androides de verdade.
Notas:
[1] Turing, A. “Computing machinery and intelligence”. Mind, 1950, vol. 49, p. 59.
[2] Weizenbaum, J. Computer Power and Human Reason: From Judgment to Calculation. 1976, p. 6.
[3] Demchenko, E.; Veselov, V. “Who fools whom? The great mystification, or methodological issues on making fools of human beings”. R. Epstein et al. (ed.). Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. 2008. p. 258.
Fonte: IHU