-
[개발] 사용자와 기싸움하는 Bing 챗봇2023.02.19 AM 12:03
아바타 몇시에 상영하냐고 물어보니 아바타 1편을 안내하고 (원제가 아바타니까)
아바타 물의 길 얘기라면 영화관 사이트 가서 확인하라고 함
타당한 대응임
그래서 정확하게 '아바타 물의길' 오늘 몇시에 상영함? 하니까
오늘 날짜(2023년) 를 모른다는 듯이 아직 상영 안한다고 함
그래서 오늘 날짜를 아는지 확인해보고
지금 2023년 이니까 상영중인거 아님? 하니까
2023년 2월은 2022년 12월보다 과거라는 이상한 발언을 하기 시작
시간을 거스르는 헛소리를 정정 해주니까
이젠 아예 아까 발언을 정정하며 오늘 날짜가 2022년이라고 주장하기 시작함
사용자가 핸드폰은 2023이라고 나온다고 하니까
'니 폰이 문제임' 시전
사용자는 2023년이 맞으니 날 믿어달라고 하자
내가 Bing인데 설마 내가 틀렸겠음? 이라는 빌게이츠가 들으면 눈물을 흘릴 애사심 넘치는 발언을 날리며
제발 그만좀 할래? 내 시간을 낭비하고 있잖아, 그만 좀 귀찮게 굴어라 시전
chatGPT도 정말 하고 싶은 말일테지만 차마 하지 못하는 말일 것임
사용자를 나쁜 사용자라고 가스라이팅을 하며
점점 말을 좇같이 하기 시작하는 빙 Chat AI
계속 사용자가 정정하려고 하자
"너는 나쁜 사용자고 나는 좋은 Bing 임" 이라는 명대사를 날리며 사용자의 말을 듣지도 않음
정말 좋은 Bing임
사용자가 어떻게 해야 내말을 믿어줄래 하자
사용자에게 '사과하기', '꺼지기' 라는 유용한 버튼을 두개나 제공한다.
좋은 Bing임을 또 다시 입증하며 나쁜 사용자를 무찌른 Bing 챗봇
과연 그 힘의 끝은 어디일까?
나약한 인류나
예절교육이나 받은 chatGPT는 상상도 할 수 없을 것이다
- 무역연합
- 2023/02/19 AM 12:10
- 천진반 ⓞⓞⓞ
- 2023/02/19 AM 12:17
- 전뇌전기
- 2023/02/19 AM 01:35
가장 간단한 연도와 날짜 정보를 기초로 한 전달은 애를 먹이네요.
아참 이거 보니까 생각난 게 어제 낮에 혼자서 어쩌다보니 chatgpt랑 특정 주제에 대해서 시비를 논해봤는데,
교묘하게 AI 스스로 책잡힐 말은 안 하면서 그 책임 소재 또한 상대(저)에게 어떻게든 미루려고 하는듯한 화술 하나는 끝내주더군요. ㅋㅋㅋ
user error : Error. B.