Usuário:CaveatLector2022/ChatGPT2
Mercados financeiros
[editar | editar código-fonte]A empresa de tecnologia de IA c3.ai viu um aumento de 28% no preço das suas ações após anunciar a integração do ChatGPT no seu kit de ferramentas.[1] O preço das ações da BuzzFeed, empresa de média digital não relacionada à IA, aumentou 120% após anunciar a adoção da tecnologia OpenAI para criação de conteúdo.[2] A Reuters descobriu que os preços das ações das empresas relacionadas à IA BigBear.ai e SoundHound AI aumentaram 21% e 40%, respetivamente, embora não tivessem conexão direta com o ChatGPT.[3] Eles atribuíram este aumento ao papel do ChatGPT em transformar a IA na palavra da moda em Wall Street. Uma investigação académica publicada na Finance Research Letters descobriu que o 'efeito ChatGPT' levou os investidores de retalho a aumentar os preços dos ativos de criptomoeda relacionados à IA, apesar do mercado mais amplo de criptomoedas estar num mercado em baixa e diminuir o interesse dos investidores institucionais.[4] Isto confirma as descobertas anedóticas da Bloomberg de que, em resposta ao lançamento do ChatGPT, os investidores em criptomoedas mostraram uma preferência por ativos criptográficos relacionados com IA.[5] Uma experiência realizado pelo finder.com revelou que o ChatGPT poderia superar os gestores de fundos populares ao escolher ações com base em critérios como histórico de crescimento e níveis de dívida, resultando num aumento de 4,9% numa conta hipotética de 38 ações, superando 10 fundos de investimento de referência com uma média perda de 0,8%.[6]
Por outro lado, executivos e gestores de investimentos de fundos quantitativos de Wall Street (incluindo aqueles que usam aprendizagem de máquina há décadas) notaram que o ChatGPT comete regularmente erros óbvios que seriam financeiramente onerosos para os investidores, porque mesmo os sistemas de IA que empregam aprendizagem por reforço ou autoaprendizagem têm tido apenas um sucesso limitado na previsão das tendências do mercado devido à qualidade inerentemente ruidosa dos dados de mercado e dos sinais financeiros.[7] Em novembro de 2023, uma investigação conduzida pela Patronus AI, uma empresa startup de inteligência artificial, comparou o desempenho do GPT-4, GPT-4-Turbo, Claude2 e LLaMA-2 em duas versões de um teste de 150 perguntas sobre informações em declarações financeiras (por exemplo, Formulário 10-K, Formulário 10-Q, Formulário 8-K, relatórios de lucros, transcrições de teleconferências de lucros) enviados por empresas públicas à Comissão de Valores Mobiliários dos EUA (SEC). Uma versão do teste exigia que os modelos generativos de IA usassem um sistema de recuperação para encontrar o arquivo específico da SEC para responder às perguntas; a outra deu aos modelos o arquivo específico da SEC para responder à pergunta (ou seja, numa longa janela de contexto). Na versão do sistema de recuperação, o GPT-4-Turbo e LLaMA-2 não conseguiram produzir respostas corretas para 81% das perguntas, enquanto que na versão de janela de contexto longa, GPT-4-Turbo e Claude-2 não conseguiram produzir respostas corretas para 21% e 24% das questões, respetivamente.[8][9]
Medicina
[editar | editar código-fonte]No domínio dos cuidados de saúde, possíveis utilizações e preocupações estão sob escrutínio por associações profissionais e por profissionais.[10][11] Dois artigos iniciais indicaram que o ChatGPT poderia passar no Exame de Licenciamento Médico dos Estados Unidos (USMLE).[12] O MedPage Today observou em janeiro de 2023 que “os investigadores publicaram vários artigos agora divulgando estes programas de IA como ferramentas úteis na educação médica, investigação e até mesmo na tomada de decisões clínicas”.[12]
Dois artigos que foram publicados separadamente em fevereiro de 2023 avaliaram novamente a proficiência do ChatGPT em medicina usando o USMLE. Os resultados foram publicados no JMIR Medical Education (ver Journal of Medical Internet Research) e no PLOS Digital Health. Os autores do artigo da PLOS Digital Health afirmaram que os resultados “sugerem que grandes modelos de linguagem podem ter o potencial de auxiliar na educação médica e, potencialmente, na tomada de decisões clínicas”.[13][14] No JMIR Medical Education, os autores do outro artigo concluíram que "o ChatGPT tem um desempenho no nível esperado de um estudante de medicina do terceiro ano na avaliação da competência primária do conhecimento médico." Eles sugerem que poderia ser usado como um “ambiente de aprendizagem interativo para os alunos”. A própria IA, solicitada pelos investigadores, concluiu que “este estudo sugere que o ChatGPT tem potencial para ser usado como tutor médico virtual, mas são necessárias mais investigações para avaliar melhor o seu desempenho e usabilidade neste contexto”.[15] A versão ChatGPT lançada posteriormente baseada em GPT-4 superou significativamente a versão baseada em GPT-3.5.[16] Investigadores da Universidade de Stanford e da Universidade da Califórnia em Berkeley descobriram que o desempenho do GPT-3.5 e GPT-4 no USMLE diminuiu de março de 2023 a junho de 2023.[17][18]
Um artigo de março de 2023 testou a aplicação do ChatGPT em toxicologia clínica. Os autores descobriram que a IA “saiu-se bem” ao responder a um “[exemplo de caso clínico] muito simples, improvável de ser esquecido por qualquer profissional da área”. Eles acrescentaram: "À medida que o ChatGPT se torna mais desenvolvido e adaptado especificamente para a medicina, ele poderá um dia ser útil em casos clínicos menos comuns (i.e., casos que os especialistas às vezes ignoram). Em vez de a IA substituir os humanos (médicos), nós vemo-la como 'médicos que usam IA' substituindo 'médicos que não usam IA' nos próximos anos."[19]
Um estudo de abril de 2023 em Radiologia testou a capacidade da IA de responder a perguntas sobre o rastreio do cancro da mama. Os autores descobriram que respondia adequadamente “cerca de 88 por cento das vezes”, no entanto, num caso (por exemplo), dava conselhos que se tinham tornado desatualizados cerca de um ano antes. A abrangência das suas respostas também faltou.[20][21] Um estudo publicado no JAMA Internal Medicine naquele mesmo mês descobriu que o ChatGPT muitas vezes superava os médicos humanos a responder às perguntas dos pacientes (quando comparado com perguntas e respostas encontradas em /r/AskDocs, um fórum no Reddit onde moderadores validam as credenciais médicas dos profissionais; o estudo reconhece a fonte como uma limitação).[22][23][24] Os autores do estudo sugerem que a ferramenta poderia ser integrada a sistemas médicos para ajudar os médicos a redigir respostas às perguntas dos pacientes.[25][26]
Os profissionais enfatizaram as limitações do ChatGPT na prestação de assistência médica. Em correspondência com a The Lancet Infectious Diseases, três especialistas em antimicrobianos escreveram que "as maiores barreiras à implementação do ChatGPT na prática clínica são os défices na consciência situacional, na inferência e na consistência. Estas deficiências podem pôr em risco a segurança do paciente".[27] A Physician's Weekly, embora também discuta o uso potencial do ChatGPT em contextos médicos (por exemplo, "como um assistente digital para médicos, desempenhando várias funções administrativas, como coletar informações de registos de pacientes ou categorizar dados de pacientes por histórico familiar, sintomas, resultados laboratoriais, possíveis alergias, etc."), alertou que a IA pode, às vezes, fornecer informações fabricadas ou tendenciosas.[28] Um radiologista alertou: “Vimos na nossa experiência que o ChatGPT às vezes inventa artigos de jornais ou consórcios de saúde falsos para apoiar as suas afirmações”;[29] Conforme relatado num artigo da Mayo Clinic Proceedings: Digital Health, o ChatGPT pode fazer isso para até 69% das suas referências médicas citadas. Os investigadores enfatizaram que embora muitas das suas referências tenham sido fabricadas, aquelas que o foram pareciam “enganosamente reais”.[30] No entanto, como o Dr. Stephen Hughes mencionou para o The Conversation, o ChatGPT é capaz de aprender a corrigir os seus erros do passado. Ele também observou o “puritanismo” da IA em relação a temas de saúde sexual.[31]
Ao contrário das descobertas anteriores, as respostas do ChatGPT às questões relacionadas à anestesia foram mais precisas, sucintas e descritivas em comparação com as do Bard. O Bard exibiu 30,3% de erro na resposta em comparação com ChatGPT (0% de erro).[32] Numa conferência da Sociedade Americana de Farmacêuticos do Sistema de Saúde em dezembro de 2023, investigadores da Universidade de Long Island (LIU) apresentaram um estudo que investigou as respostas do ChatGPT a 45 perguntas frequentes do serviço de informações sobre medicamentos da Faculdade de Farmácia da LIU durante um período de 16 meses de 2022 a 2023, em comparação com as respostas investigadas fornecidas por farmacêuticos profissionais. Para 29 das 39 questões para as quais havia literatura médica suficiente para uma resposta baseada em dados, o ChatGPT não forneceu uma resposta direta ou forneceu uma resposta errada ou incompleta (e em alguns casos, se fosse posta em prática, a resposta colocaria em perigo a saúde do paciente). Os investigadores pediram ao ChatGPT que fornecesse citações de investigações médicas para todas as suas respostas, mas fê-lo apenas para oito, e todas as oito incluíram pelo menos uma citação fabricada (falsa).[33][34]
Um estudo de janeiro de 2024 conduzido por investigadores do Centro Médico Pediátrico Cohen descobriu que o GPT-4 tinha uma taxa de precisão de 17% no diagnóstico de casos médicos pediátricos.[35][36]
Direito
[editar | editar código-fonte]Em janeiro de 2023, o senador do estado de Massachusetts Barry Finegold e o deputado estadual Josh S. Cutler propuseram um projeto de lei parcialmente escrito por ChatGPT, "Uma Lei elaborada com a ajuda do ChatGPT para regular modelos generativos de inteligência artificial como o ChatGPT",[37][38][39] que exigiria que as empresas divulgassem os seus algoritmos e práticas de recolha de dados ao Ministério Público Estadual, organizassem avaliações de risco regulares e contribuíssem para a prevenção do plágio.[38][39][40] O projeto foi apresentado oficialmente durante uma sessão em 13 de julho.[37][39]
Em 11 de abril de 2023, um juiz de um tribunal de sessão no Paquistão usou o ChatGPT para decidir a fiança de um acusado de 13 anos num caso. O tribunal citou o uso da assistência ChatGPT no seu veredicto:
“ | Um jovem suspeito no Paquistão, de 13 anos, pode receber fiança após ser preso? | ” |
O modelo de linguagem AI respondeu:
“ | Ao abrigo da Lei do Sistema de Justiça Juvenil de 2018, de acordo com a secção 12, o tribunal pode conceder fiança em determinadas condições. No entanto, cabe ao tribunal decidir se um suspeito de 13 anos receberá ou não fiança após a prisão. | ” |
O juiz fez outras perguntas ao ChatGPT sobre o caso e formulou a sua decisão final à luz das respostas.[41][42]
Em Mata v. Avianca, Inc., 22-cv-1461 (PKC), uma ação por danos pessoais contra a Avianca Airlines movida no Tribunal Distrital do Sul de Nova Iorque dos EUA em maio de 2023 (presidida pelo Juiz Sénior P. Kevin Castel), os advogados supostamente usaram o ChatGPT para gerar uma moção legal. O ChatGPT gerou inúmeros processos jurídicos fictícios envolvendo companhias aéreas fictícias com cotações fabricadas e citações internas na ação judicial. Castel notou inúmeras inconsistências nos resumos de opinião e classificou a análise jurídica de um dos casos como "absurda".[43] Os advogados do queixoso enfrentaram possíveis sanções judiciais e exclusão da Ordem por apresentarem a petição e apresentarem as decisões legais fictícias geradas pelo ChatGPT como autênticas.[44][45] O caso foi arquivado e os advogados foram multados em 5.000 dólares.[46][47]
Em outubro de 2023, a Câmara Municipal de Porto Alegre, Brasil, aprovou por unanimidade uma portaria local proposta pelo vereador Ramiro Rosário que isentaria os moradores do pagamento pela substituição de medidores de consumo de água furtados; o projeto entrou em vigor em 23 de novembro. No dia 29 de novembro, Rosário revelou que o projeto de lei foi integralmente redigido pelo ChatGPT e que apresentou-o ao restante do conselho sem fazer alterações ou divulgar o envolvimento do chatbot.[40][48][49] O presidente da Câmara Municipal, Hamilton Sossmeier, inicialmente criticou a iniciativa de Rosário, dizendo que poderia representar "um precedente perigoso",[49][50] mas depois disse que "mudou de ideias": "infelizmente ou felizmente, isto vai ser um tendência."[40] [[Categoria:!Páginas com traduções não revistas]]
- ↑ Fox, Matthew (31 de janeiro de 2023). «C3ai has soared 86% year-to-date as investor frenzy for artificial intelligence builds amid ChatGPT success». Markets Insider (Business Insider) (em inglês). Consultado em 14 de abril de 2023. Arquivado do original em 18 de fevereiro de 2023
- ↑ Diaz, Alicia; Smith, Gerry (26 de janeiro de 2023). «BuzzFeed Shares Surge 120% on Plans to Embrace OpenAI». Bloomberg.com (em inglês). Consultado em 22 de maio de 2023
- ↑ Singh, Medha; Biswas, Ankika (6 de fevereiro de 2023). «AI stocks rally in latest Wall Street craze sparked by ChatGPT». Reuters (em inglês). Consultado em 14 de abril de 2023. Cópia arquivada em 29 de março de 2023
- ↑ Saggu, Aman; Ante, Lennart (8 de maio de 2023). «The influence of ChatGPT on artificial intelligence-related crypto assets: Evidence from a synthetic control analysis». Finance Research Letters (em inglês). 55. 103993 páginas. ISSN 1544-6123. arXiv:2305.12739. doi:10.1016/j.frl.2023.103993
- ↑ Hajric, Vildana; Shen, Muyao (9 de fevereiro de 2023). «ChatGPT Mania Spurs Crypto Fans' Stampede to 'Faddish' AI Tokens». Bloomberg.com (em inglês). Consultado em 14 de abril de 2023. Arquivado do original em 9 de fevereiro de 2023
- ↑ Cooban, Anna (5 de maio de 2023). «ChatGPT can pick stocks better than your fund manager». CNN. Consultado em 5 de maio de 2023. Arquivado do original em 22 de maio de 2023
- ↑ Zuckerman, Gregory (12 de abril de 2023). «AI Can Write a Song, but It Can't Beat the Market». The Wall Street Journal. News Corp. Consultado em 30 de maio de 2023. Arquivado do original em 30 de maio de 2023
- ↑ Leswing, Kif (19 de dezembro de 2023). «GPT and other AI models can't analyze an SEC filing, researchers find». CNBC. Consultado em 19 de dezembro de 2023. Arquivado do original em 19 de dezembro de 2023
- ↑ «Patronus AI Launches Industry-first LLM Benchmark for Finance to Address Hallucinations» (Nota de imprensa). PR Newswire. 16 de novembro de 2023. Consultado em 19 de dezembro de 2023. Arquivado do original em 19 de dezembro de 2023
- ↑ The Lancet Digital Health (3 de março de 2023). «ChatGPT: friend or foe?». The Lancet Digital Health (em inglês). 5 (3): e102. PMID 36754723. doi:10.1016/S2589-7500(23)00023-7
- ↑ Asch, David A. (4 de abril de 2023). «An Interview with ChatGPT About Health Care». NEJM Catalyst Innovations in Care Delivery. doi:10.1056/CAT.23.0043 (inativo 31 de janeiro de 2024). Consultado em 29 de junho de 2023. Cópia arquivada em 29 de junho de 2023
- ↑ a b DePeau-Wilson, Michael (19 de janeiro de 2023). «AI Passes U.S. Medical Licensing Exam». MedPage Today. Consultado em 2 de maio de 2023. Arquivado do original em 9 de abril de 2023
- ↑ Kung, Tiffany H.; Cheatham, Morgan; Medenilla, Arielle; Sillos, Czarina; Leon, Lorie De; Elepaño, Camille; Madriaga, Maria; Aggabao, Rimel; Diaz-Candido, Giezel (9 de fevereiro de 2023). «Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models». PLOS Digital Health (em inglês). 2 (2): e0000198. ISSN 2767-3170. PMC 9931230. PMID 36812645. doi:10.1371/journal.pdig.0000198
- ↑ «Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam». Science Media Centre. 9 de fevereiro de 2023. Consultado em 2 de maio de 2023. Arquivado do original em 24 de abril de 2023
- ↑ Gilson, Aidan; Safranek, Conrad W.; Huang, Thomas; Socrates, Vimig; Chi, Ling; Taylor, Richard Andrew; Chartash, David (8 de fevereiro de 2023). «How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment». JMIR Medical Education (em inglês). 9 (1): e45312. PMC 9947764. PMID 36753318. doi:10.2196/45312
- ↑ Brueck, Hilary. «The newest version of ChatGPT passed the US medical licensing exam with flying colors — and diagnosed a 1 in 100,000 condition in seconds». Business Insider (em inglês). Consultado em 2 de fevereiro de 2024. Arquivado do original em 27 de janeiro de 2024
- ↑ Pressman, Aaron (8 de novembro de 2023). «The AI boom is shaking up the tech industry and moving markets. But is it all a mirage?». The Boston Globe. Consultado em 5 de dezembro de 2023. Arquivado do original em 5 de dezembro de 2023
- ↑ Chen, Lingjiao; Zaharia, Matei (31 de outubro de 2023). «How is ChatGPT's behavior changing over time?». arXiv:2307.09009v3 [cs.CL]
- ↑ Abdel-Messih, Mary Sabry; Boulos, Maged N. Kamel (8 de março de 2023). «ChatGPT in Clinical Toxicology». JMIR Medical Education (em inglês). 9 (1): e46876. PMC 10034604. PMID 36867743. doi:10.2196/46876
- ↑ Haver, Hana L; Ambinder, Emily B; Bahl, Manisha; Oluyemi, Eniola T; Jeudy, Jean; Yi, Paul H (4 de abril de 2023). «Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT». Radiology (em inglês). 307 (4). 230424 páginas. ISSN 0033-8419. PMID 37014239 Verifique
|pmid=
(ajuda). doi:10.1148/radiol.230424. Consultado em 5 de maio de 2023. Cópia arquivada em 5 de maio de 2023 - ↑ Kotz, Deborah (4 de abril de 2023). «UM School of Medicine Study Finds ChatGPT Helpful for Breast Cancer Screening Advice, With Certain Caveats». University of Maryland School of Medicine. Consultado em 5 de maio de 2023. Arquivado do original em 5 de maio de 2023
- ↑ Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M.; Longhurst, Christopher A. (28 de abril de 2023). «Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum». JAMA Internal Medicine (em inglês). 183 (6): 589–596. ISSN 2168-6106. PMC 10148230 Verifique
|pmc=
(ajuda). PMID 37115527 Verifique|pmid=
(ajuda). doi:10.1001/jamainternmed.2023.1838. Consultado em 2 de maio de 2023. Cópia arquivada em 30 de abril de 2023 - ↑ Fox, Andrea (4 de maio de 2023). «Does ChatGPT really outshine doctors? Or just on social media?». Healthcare IT News. HIMSS Media. Consultado em 5 de maio de 2023. Arquivado do original em 4 de maio de 2023
- ↑ «The doctor is out, but it's OK. ChatGPT can answer your questions». Hub. Johns Hopkins University. 28 de abril de 2023. Consultado em 5 de maio de 2023. Arquivado do original em 5 de maio de 2023
- ↑ Ono, Mika (28 de abril de 2023). «Study Finds ChatGPT Outperforms Physicians in High-Quality, Empathetic Answers to Patient Questions». UC San Diego Today. Consultado em 28 de abril de 2023. Arquivado do original em 28 de abril de 2023
- ↑ «ChatGPT Beats Doctors in Compassion and Quality of Advice to Patients». Neuroscience News. 28 de abril de 2023. Consultado em 2 de maio de 2023. Arquivado do original em 3 de maio de 2023
- ↑ Howard, Alex; Hope, William; Gerada, Alessandro (abril de 2023). «ChatGPT and antimicrobial advice: the end of the consulting infection doctor?». The Lancet Infectious Diseases. 23 (4): 405–406. ISSN 1473-3099. PMID 36822213. doi:10.1016/s1473-3099(23)00113-5. Consultado em 2 de maio de 2023. Cópia arquivada em 25 de março de 2023
- ↑ «Is There a Role for ChatGPT in Healthcare?». Physician's Weekly. 27 de abril de 2023. Consultado em 5 de maio de 2023. Arquivado do original em 5 de maio de 2023
- ↑ Drake, Kimberly (6 de abril de 2023). «Rely on a Doctor, Not ChatGPT, for Medical Advice». HealthNews. Consultado em 5 de maio de 2023. Arquivado do original em 5 de maio de 2023
- ↑ Gravel, Jocelyn; D’Amours-Gravel, Madeleine; Osmanlliu, Esli (1 de setembro de 2023). «Learning to Fake It: Limited Responses and Fabricated References Provided by ChatGPT for Medical Questions». Mayo Clinic Proceedings: Digital Health (em inglês). 1 (3): 226–234. ISSN 2949-7612. doi:10.1016/j.mcpdig.2023.05.004
- ↑ Hughes, Stephen (27 de abril de 2023). «How good is ChatGPT at diagnosing disease? A doctor puts it through its paces». The Conversation. Consultado em 5 de maio de 2023. Arquivado do original em 4 de maio de 2023
- ↑ Patnaik, Sourav S.; Hoffmann, Ulrike (7 de novembro de 2023). «Quantitative evaluation of ChatGPT versus Bard responses to anaesthesia-related queries». British Journal of Anaesthesia. 132 (1): S0007–0912(23)00550–0. ISSN 1471-6771. PMID 37945414 Verifique
|pmid=
(ajuda). doi:10.1016/j.bja.2023.09.030. Consultado em 28 de novembro de 2023. Cópia arquivada em 18 de fevereiro de 2024 - ↑ Constantino, Annika Kim (5 de dezembro de 2023). «Free ChatGPT may incorrectly answer drug questions, study says». CNBC. Consultado em 5 de dezembro de 2023. Arquivado do original em 5 de dezembro de 2023
- ↑ «Study Finds ChatGPT Provides Inaccurate Responses to Drug Questions» (Nota de imprensa). PR Newswire. 5 de dezembro de 2023. Consultado em 5 de dezembro de 2023. Arquivado do original em 5 de dezembro de 2023
- ↑ Barile, Joseph; Margolis, Alex; Cason, Grace; Kim, Rachel; Kalash, Saia; Tchaconas, Alexis; Milanaik, Ruth (2 de janeiro de 2024). «Diagnostic Accuracy of a Large Language Model in Pediatric Case Studies». JAMA Pediatrics. 178 (3): 313–315. ISSN 2168-6203. PMC 10762631 Verifique
|pmc=
(ajuda). PMID 38165685 Verifique|pmid=
(ajuda). doi:10.1001/jamapediatrics.2023.5750. Consultado em 18 de fevereiro de 2024. Cópia arquivada em 18 de fevereiro de 2024 - ↑ Mole, Beth (3 de janeiro de 2024). «ChatGPT bombs test on diagnosing kids' medical cases with 83% error rate». Ars Technica (em inglês). Consultado em 5 de janeiro de 2024. Arquivado do original em 17 de janeiro de 2024
- ↑ a b «Bill S.31». malegislature.gov. Consultado em December 7, 2023. Arquivado do original em December 7, 2023 Verifique data em:
|acessodata=, |arquivodata=
(ajuda) - ↑ a b Annear, Steve (January 24, 2023). «Two elected officials drafted legislation to regulate artificial intelligence technology — with some help from ChatGPT». The Boston Globe (em inglês). Consultado em December 7, 2023. Arquivado do original em December 7, 2023 Verifique data em:
|acessodata=, |arquivodata=, |data=
(ajuda) - ↑ a b c Garrity, Kelly; Kashinsky, Lisa (July 13, 2023). «ChatGPT enters the legislative chat». POLITICO (em inglês). Consultado em December 7, 2023. Arquivado do original em December 7, 2023 Verifique data em:
|acessodata=, |arquivodata=, |data=
(ajuda) - ↑ a b c Quach, Katyanna (2 de dezembro de 2023). «Local council in Brazil passes ChatGPT-written proposal». The Register. Consultado em 7 de dezembro de 2023. Arquivado do original em 7 de dezembro de 2023 Erro de citação: Código
<ref>
inválido; o nome ":3" é definido mais de uma vez com conteúdos diferentes - ↑ «Pakistani judge uses ChatGPT to make court decision». Gulf News. 13 de abril de 2023. Consultado em 20 de abril de 2023. Arquivado do original em 20 de abril de 2023
- ↑ «AI revolution is here': Pakistani court takes help from ChatGPT to grant bail in rape case». Pakistan Observer. 11 de abril de 2023. Consultado em 20 de abril de 2023. Arquivado do original em 20 de abril de 2023
- ↑ Brodkin, Jon (23 de junho de 2023). «Lawyers have real bad day in court after citing fake cases made up by ChatGPT». Ars Technica (em inglês). Consultado em 18 de fevereiro de 2024. Arquivado do original em 26 de janeiro de 2024
- ↑ Goswami, Rohan (30 de maio de 2023). «ChatGPT cited 'bogus' cases for a New York federal court filing. The attorneys involved may face sanctions.». CNBC. Consultado em 30 de maio de 2023. Arquivado do original em 30 de maio de 2023
- ↑ Neumeister, Larry (8 de junho de 2023). «Lawyers blame ChatGPT for tricking them into citing bogus case law». Associated Press. Consultado em 8 de novembro de 2023. Arquivado do original em 8 de novembro de 2023
- ↑ «Mata v. Avianca, Inc.». Casetext. Consultado em 13 de fevereiro de 2024. Arquivado do original em 13 de fevereiro de 2024
- ↑ «'Use with caution': How ChatGPT landed this US lawyer and his firm in hot water». ABC News (em inglês). 24 de junho de 2023. Consultado em 9 de novembro de 2023. Arquivado do original em 9 de novembro de 2023
- ↑ Jeantet, Diane; Savarese, Mauricio; LeBlanc, Steve; O'Brien, Matt (30 de novembro de 2023). «Brazilian city enacts an ordinance that was secretly written by ChatGPT». AP News (em inglês). Associated Press. Consultado em 7 de dezembro de 2023. Arquivado do original em 7 de dezembro de 2023
- ↑ a b Paúl, María Luisa (4 de dezembro de 2023). «A Brazilian city passed a law about water meters. ChatGPT wrote it.». Washington Post (em inglês). ISSN 0190-8286. Consultado em 7 de dezembro de 2023. Arquivado do original em 5 de dezembro de 2023
- ↑ «Lei escrita por inteligência artificial é aprovada por vereadores em Porto Alegre; 'precedente perigoso', diz presidente da Câmara». G1. 29 de novembro de 2023. Consultado em 7 de dezembro de 2023. Arquivado do original em 7 de dezembro de 2023