웹사이트 검색

수학을 하기 위해 ChatGPT를 신뢰하지 마세요


ChatGPT, Bing Chat, Google Bard 또는 기타 챗봇에서 나오는 모든 것을 사실 확인하는 것이 중요합니다. 믿거나 말거나, 수학은 특히 그렇습니다. ChatGPT가 수학을 할 수 있다고 가정하지 마세요. 최신 AI 챗봇은 계산 및 산술보다 창의적인 글쓰기에 더 능숙합니다.

챗봇은 계산기가 아닙니다

언제나 그렇듯이 AI와 작업할 때는 신속한 엔지니어링이 중요합니다. 많은 정보를 제공하고 좋은 응답을 얻기 위해 텍스트 프롬프트를 신중하게 작성하고 싶습니다.

그러나 응답으로 흠잡을 데 없는 논리 조각을 얻더라도 중간에 눈을 가늘게 뜨고 ChatGPT가 1+1=3의 라인을 따라 실수를 했다는 것을 깨달을 수 있습니다. 그러나 ChatGPT는 논리를 잘못 이해하는 경우가 많으며 계산에도 좋지 않습니다.

대규모 언어 모델에 계산기 기능을 요청하는 것은 계산기에게 희곡을 쓰라고 요청하는 것과 같습니다. 무엇을 기대하셨습니까? 그게 목적이 아닙니다.

여기서 우리의 주요 메시지는 다음과 같습니다. AI의 작업을 두 번 또는 세 번 확인하는 것이 중요합니다. 그것은 단순한 수학 이상을 의미합니다.

다음은 ChatGPT가 완전히 무너지는 몇 가지 예입니다. 이 기사에서는 gpt-3.5-turbo 기반의 무료 ChatGPT와 GPT 4 기반의 Bing Chat을 사용했습니다. 최첨단 AI 챗봇으로도 이러한 문제를 해결할 수 있습니다.

ChatGPT는 셀 수 없습니다

ChatGPT 및 Bing은 항목 목록을 계산하는 데 신뢰할 수 없는 것 같습니다. 기본 작업처럼 보이지만 신뢰할 수 있는 답변을 얻는 데 의존하지 마십시오.

우리는 ChatGPT에 숫자 열을 제공하고 숫자 중 하나의 발생을 계산하도록 요청했습니다. (자신을 세지 않아도 됩니다. 정답은 숫자 100이 14번 나오는 것입니다.)

ChatGPT를 수정하고 사과하고 새로운 답변을 제공하더라도 반드시 정답을 얻지는 않습니다.

ChatGPT는 종종 미친 듯이 실수를 은폐하고 답변을 제공하려는 사람처럼 행동합니다. 실제로 매우 생생합니다!

늘 그렇듯이 가장 큰 문제 중 하나는 ChatGPT가 사용자에게 다른 답변을 머신건으로 퍼붓는 경우에도 모든 답변에 대해 얼마나 완벽하게 확신하는지입니다.

Microsoft의 Bing Chat을 통해 GPT 4를 시도했지만 비슷한 문제가 발생했습니다. Bing은 이 까다로운 문제를 해결하기 위해 일부 Python 코드를 작성하기로 결정했지만 올바른 답을 얻지 못했습니다. (Bing은 실제로 코드를 실행하지 않았습니다.)

ChatGPT는 수학 논리 문제로 어려움을 겪습니다.

ChatGPT에 수학 단어 문제를 주면 정답을 얻지 못하는 이상한 왜곡과 회전을 종종 보게 될 것입니다.

우리는 ChatGPT에 과일 기반 수학 문제를 제공했습니다. 이 수학 문제는 다른 펀드 간에 기여금을 할당하여 투자 포트폴리오의 균형을 재조정하려고 시도하거나 단순히 과일을 많이 구입하고 과일 기반 포트폴리오를 고수하는 경우 묻는 질문을 반영합니다. 배고픈 투자자.

ChatGPT는 괜찮게 시작하지만 말이 되지 않고 정답을 제공하지 않는 논리로 빠르게 레일을 벗어납니다.

최종 답이 틀렸다는 것을 깨닫기 위해 모든 우여곡절을 따를 필요는 없습니다.

ChatGPT는 종종 응답에 대해 귀하와 파헤치고 논쟁할 것입니다. (다시 말하지만, 그것은 매우 인간적인 행동입니다.)

이 경우 ChatGPT는 정답을 얻지는 못했지만 이전보다 원하는 비율에 가까워졌다고 주장했습니다! 꽤 재밌습니다.

기록을 위해 GPT 4 기반의 Microsoft Bing Chat도 이 문제로 어려움을 겪었고 분명히 오답을 제공했습니다. GPT 4의 논리도 여기서 빠르게 벗어납니다.

모든 논리를 따르려고 시도하지 않는 것이 좋습니다. 대답이 틀렸다는 것은 분명합니다.

우리가 Bing의 대답이 틀렸다고 지적하자 Bing은 오답을 연달아 오답을 제시하며 빙글빙글 돌며 우리와 계속 논쟁을 벌였습니다.

ChatGPT는 안정적으로 산술 연산을 수행할 수 없습니다.

ChatGPT가 때때로 빠져나가 기본 산술을 잘못 설명한다는 점은 주목할 가치가 있습니다. 우리는 명쾌한 답변 중간에 1+1=3 smack-dab과 유사한 잘못된 산술 문제에 대한 논리적 답변을 보았습니다.

ChatGPT 및 기타 AI 챗봇에서 얻는 모든 것을 확인하고, 다시 확인하고, 세 번 확인하세요.