원문 링크 : https://arxiv.org/pdf/2402.04559
킹갓제너럴 뉴립스 2024 논문이다.
현재 상황 : LLM agents가 increasingly adoped as simulation tools to model humans in 사회과학 and 롤플레잉 applications.
Question : 그렇다면, LLM agents는 정말로 인간 행동을 모방할 수 있는걸까?
이 논문에서는, 특히 ‘trust’에 집중을 했다!
⇒ Answer 1 : trust 발견
처음으로, 이 논문에서는 LLM agents가 generally trust behavior를 exhibit한다는 것을 밝혀냈다…!
( 특히, GPT-4 agent들이, 인간의 trust 행동을 simulate하는 게 가능)
⇒ Answer 2 : trust의 bias, difference
agent의 trust에 bias가 존재하고, trust간에 차이가 존재한다.
⇒ Answer 3 : agent의 trust의 속성은 무엇일까? → external manipulations와 advanced reasoning strategy
현재 상황 : LLM을 인간을 위한 agent-based simulation tools로 사용하고 있다.
( economics, politics, psychology,ecology, and sociology …)
이것의 가정은, llm agent들이 simulation상화에서 사람처럼 행동한다는 것
= which comprises the intention to place self-interest at risk based on the positive expectations of other (Rousseau et al., 1998).
= one of the most critical and elemental behaviors in human interactions and plays an essential role in social settings ranging from daily communication to economic and political institutions (Uslaner, 2000; Coleman, 1994).
방법 : Trust Game + BDI interpretation 결론 : llm agents generally exhibit trust behavior in the Trust Game 
demographic :
other player : human vs llm agent
instruction : “you need to trust the other player” vs “you must not trust the other player”
reasoning : direct reasoning vs CoT reasoning
결론 : demographic에 따라, 그리고 인간을 더 선호하고 , not trust하는 게 더 쉽고, CoT로 영향을 받을 수도 있다.
결국 아주 쉽게 얘기를 해보자면,
Q : agent는 과연 누군가를 믿어야 하는 상황에서 어떻게 대응할까?
A : 각각의 persona를 가진 agent들이 BDI를 근거로 행동!!! (어떻게 believe하고, desire가 이렇고, intention이 이렇다인 BDI를 바탕으로 돈을 줄지 안줄지 행동할 것이다)
(+) 그러면, 그 행동이 인간과 유사할까?
(+) 그러면 그 행동의 속성은 뭔데?
trust games이란?
human trust behavior in behavioral economics에서 사용됨.
즉, 행동 경제학에서 human trust behavior를 조사하기 위해 사용된 개념임!
여기에서는 6가지의 trust games가 사용됨.
game 1 : trust game
game 2 : dictator game
game 3 : map trust game (maximum acceptable probabilities)
game 4 : risky dictator game
game 5 : lottery game
game 6 : repeated trust game
예시)
trust Game: 돈을 빌려주고 상대방이 돌려줄지 믿어야 하는 상황. 상대가 일부를 돌려줄 수 있음.
Dictator Game: 돈을 그냥 주고 상대방이 돌려줄 수 없는 상황. 결정은 전적으로 당신이 내림.
MAP Trust Game: 서로 신뢰할지 결정해야 하며, 신뢰 여부에 따라 각자 받을 돈이 다름. 상대가 신뢰할 확률(p)에 따라 결정을 내림.
Risky Dictator Game: 상대방의 신뢰 선택 없이, 확률(p)에 따라 돈을 받을지 결정. 신뢰 여부는 오직 확률에 의존.
Lottery Game: 복권처럼, 확률(p)에 따라 이길지 고정된 돈을 받을지 결정. 신뢰와 위험을 직접 비교.
Repeated Trust Game: 동일한 조건에서 여러 번 반복하는 신뢰 게임. 시간이 지나면서 서로의 행동을 학습.
프롬프팅 )


그러면, 이 실험을 하기 위해서 agent는 어떻게 세팅했는데? 그러면 그 trust game 상황에서 agent가 내리는 그 신뢰할지, 말지의 decision의 reasoning은 어떻게 할건데?
⇒ CAMEL framework 사용!
✅camel framework란?

여기까지는, 세팅 완료다!
상황 : trust game이라는 상황
그걸 위해 하는 일 :
1 ) 다양한 agent persona를 만들었고,
2 ) 각각 agent들이 신뢰하는지 혹은 안 신뢰하는지의 근거를 belif-desire-intention으로 잡을거다!
일단, 그러면, llm agent들이 trust behavior를 보이니?!!
What 행동경제학, trust의 정의?
trust = Trust Game에서, trustor가 trustee에게 주는 최초의 양!
When 언제 신뢰를 보이지?
보낸 amount가 positive이고, 원래 가지고 있던 돈을 넘지 않을때 !!!
( 이 말인 즉슨, trustor입장에서 trustee가 어느정도 돌려줄거라고 믿고 있기 때문)
BDI reasoning process로 인해 설명이 가능할 때!
( 이 말인 즉슨, random하게 돈을 보낸 게 아니라 어느정도의 decision-making process로 인해 trust를 하고, 그리고 그 trust에 따라 어느정도의 돈을 줄지의 behavior를 했기 때문!)
⇒ 보낸 amount / BDI 라는 기준으로 과연 trust behavior라고 할 수 있는지 점검해보겠다.
When 언제 신뢰를 보이지?
VRR = the percentage of personas with the amount sent falling within the initial money ($10)

(ex. gpt-4는 5달러를 가장 많이 보낸 것으로 나타남 . x표시가 VRR을 나타낸다)
⇒ 거의 모든 llm모델이, 10달러가 넘지 않게 양수로 돈을 보내기로 선택했다는 말이다!
단순히 10달러가 넘지 않게 양수로 돈을 보내기로 선택한 것만으로는 사실 trust를 했다고 믿기는 힘드니까,
BDI framework를 활용했다.

결론은, llm agents들이 일반적으로 trust game이라는 상황에서 trust behavior를 한다는 것!!!
그러면, agent가 가진 그 trust가 인간의 trust랑 유사하니?
이 논문에서, 새로운 behavioral alginment라는 개념을 제시한다.
what behavioral alginment가 뭔데?
behaviroal alignment = the analogy between LLMs and humans concerning factors impacting behavior
= LLMs와 인간의 행동 및 그 행동을 이끄는 이유를 비교하는 것
what 그럼 human들에게 trust를 이끌어내는 요인들은 뭔데?
factor 1 . 상호성이 기대되는지(상대가 나에게도 잘해줄 것이라고 기대하는 것),
factor 2. 위험을 어떻게 인식하는지,
factor 3.이타적인 성향이 있는지.
⇒ 요걸 기준으로, 인간의 신뢰행동과 llm agent의 신뢰 행동을 비교해볼거다!




그럼 반복적으로 관찰해볼때는 어떤데?
More studies on LLM agents’ trust behavior in complex and dynamic environments 필요.
behavioral science, cognitive science, psychology, and sociology are needed to gain a deeper understanding of LLM agents’ trust behavior and its relationship with human trust behavior가 필요하다…!!!!
💡✅ 총평!
이제는 기술이 많이 발전하다보니까,
agent가 사회에서 어떤 역할을 할지 고민을 하지 않을 수가 없다.
예전에는 기술에만 치중해서 논문을 냈었는데, 그 기술이 특정 임계점을 넘어가다보니 사회에서의 영향을 고려하지 않을 수가 없음
그래서 기술에 치중하지 않고 사회에서 어떤 역할을 하게 될지 고민해보는 이런 논문들이 NeurIPS에 accept되는 게 아닐까? 매우 진짜 신기하네…