본문 바로가기

Prompt Engineering

1.개발자를 위한 ChatGPT Prompt Engineering

 

 

0. 글 들어가기 전 - 며칠 전 DeepLearning.AI에서 다음과 같은 이메일을 받았다.

 

"We are thrilled to introduce our all-new short course ChatGPT Prompt Engineering for Developer, built in partnership with OpenAI and taught by Isa Fulford(OpenAI) and Andrew Ng! "

 

Prompt Engineering이라고 들어는 본거 같고, 무료라니 그냥 들어나 보자
회원가입하면 무료로 수업을 들을수 있다.(이동하기)

 

 

1. Prompt Engineering이란? (출처)

 

프롬프트 엔지니어링은 주어진 작업의 결과를 개선하기 위해 AI 모델에 대한 입력을 생성하는 프로세스입니다. 프롬프트는 콘텐츠를 생성하기 위해 AI 모델을 트리거하는 광범위한 지침입니다. 명령문, 코드 블록 또는 일련의 단어일 수 있습니다. 프롬프트 또는 입력을 받은 후 AI 모델은 응답으로 출력을 생성합니다. 출력 품질은 제공된 프롬프트에 따라 상당히 달라질 수 있습니다. 프롬프트 엔지니어링은 특정 작업에 대한 프롬프트를 작성하거나 구성하는 가장 좋은 방법을 결정하여 AI 모델 사용을 개선하는 것을 목표로 합니다. 이 프로세스에는 모델이 이해하고 학습에 사용할 수 있도록 적절한 데이터 유형을 선택하고 형식을 지정하는 작업이 포함됩니다. 프롬프트 엔지니어링은 AI 모델이 정확한 출력을 생성할 수 있도록 고품질 교육 데이터를 생성합니다. 생성형 AI 모델의 폭넓은 채택으로 프롬프트 엔지니어링은 바람직하고 유용한 결과를 산출하는 입력 방법을 결정하는 중요한 분야가 되고 있습니다.

 

 

2. LLM이란? (출처)

 

대형 언어 모델(LLM)은 자체 지도 학습 또는 준지도 학습을 사용하여 레이블이 지정되지 않은 대량의 텍스트에 대해 훈련된 많은 매개 변수(일반적으로 수십억 가중치 이상)를 가진 신경망으로 구성된 언어 모델입니다.LLM은 2018년경에 등장했으며 다양한 작업에서 우수한 성능을 발휘합니다. 이로 인해 자연어 처리 연구의 초점이 특정 작업에 대한 전문 감독 모델을 훈련하는 이전 패러다임에서 벗어났습니다.

대규모 언어 모델이라는 용어는 공식적인 정의가 없지만 종종 수십억 개 이상의 매개 변수 수를 가진 딥러닝 모델을 나타냅니다.LLM은 감정 분석, 명명된 실체 인식 또는 수학적 추론과 같은 하나의 특정 작업에 대해 훈련되는 것과 달리 광범위한 작업에서 탁월한 범용 모델입니다.그들이 작업을 수행하는 기술과 그들이 수행할 수 있는 작업의 범위는 설계의 추가적인 혁신에 의존하지 않는 방식으로 그들에게 할당된 자원의 양(데이터, 매개 변수 크기, 컴퓨팅 성능)의 함수인 것 같습니다.

문장에서 다음 단어를 예측하는 간단한 작업에 대한 교육을 받았지만, 충분한 훈련과 매개 변수 수를 가진 신경 언어 모델은 인간 언어의 구문과 의미론의 많은 부분을 포착하는 것으로 밝혀졌습니다. 게다가, 큰 언어 모델은 세상에 대한 상당한 일반적인 지식을 보여주며, 훈련하는 동안 많은 양의 사실을 "기억"할 수 있습니다.

 

 

3. LLMs의 두가지 유형

 

강의내 영상 스크린샷

 

4. 강의의 결론은 다음과 같고, 그 구체적인 코드 사례는 다음 시간에 살펴보자

 

1. 규칙 두가지

- 명확하고 구체적인 지시문 작성하기

- 모델에게 "생각"할 시간을 주자

 

2. 반복적인 프롬프트 개발

 

3. 수행능력

- 요약

- 추론

- 변환

- 확장

 

4. 챗봇 구축

 

-계속-

'Prompt Engineering' 카테고리의 다른 글

6. 변환(Transforming)  (0) 2023.05.02
5. 추론(Inferring)  (0) 2023.05.02
4. 요약(summary)  (0) 2023.05.02
3. 반복적인 프롬프트 개발  (0) 2023.05.02
2. Prompt에 대한 지침  (0) 2023.05.02