Ffightingseok

[23′ Nature Article] Leveraging large language models for predictive chemistry

This entry is part 2 of 7 in the series Battery

LLM을 활용하여 분자식을 예측하는 새로운 방법을 제안합니다. 이 방법은 분자 데이터를 자연어처럼 처리하여, 분자의 특성을 분류하고, 특성으로부터 분자식을 역추론하는 과정을 단순화합니다. LLM의 자연어 처리 능력을 이용해 분자식을 직접 입력으로 사용하며, 이를 통해 분자의 특성을 예측하거나 새로운 분자식을 설계합니다.

이번 실험의 dataset, tasks

[22′ NeurIPS] LIFT: Language-Interfaced Fine-Tuning for Non-Language Machine Learning Tasks

This entry is part 12 of 13 in the series Language Model

Non-Language Task를 언어 문제로 변환하여 해결하는 혁신적 방법을 제시합니다. 이 연구는 LLM의 표현력을 활용해 다양한 데이터 유형을 언어화하고, 이를 통해 문제를 직관적으로 해결합니다. LIFT는 LLM의 활용 범위를 확장하며, 데이터의 의미적 이해를 통한 정확한 예측과 분석을 가능하게 합니다.

LIFT 방법

[23′ ICLR] Self Consistence : SELF-CONSISTENCY IMPROVES CHAIN OF THOUGHT REASONING IN LANGUAGE MODELS

This entry is part 10 of 13 in the series Language Model

Chain of Thought Prompting의 한계를 극복하고, 모델이 여러 추론 경로를 통해 일관된 최적의 답변을 도출하는 방법을 제시합니다. 실험 결과는 이 방식이 산수, 상식, 기호 추론 등에서 기존 방법보다 우수한 성능을 보임을 입증합니다. Self Consistency는 NLP 모델의 정확도와 신뢰성을 향상시키는 동시에, 계산 비용의 증가라는 도전과제를 제시합니다.

Self Consistency 예시

[20′ NeurIPS] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

This entry is part 9 of 13 in the series Language Model

Retrieval-Augmented Generation (RAG) 모델은 외부 지식을 동적으로 검색하여 복잡한 질문에 대한 정확하고 상세한 답변을 생성합니다. 이 글에서는 RAG가 기존 언어 모델의 한계를 어떻게 극복하고, NLP 분야에서 지식 기반 추론과 답변 생성의 새로운 기준을 설정하는지 탐구합니다.

RAG Architecture

[22′ NeurIPS] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

This entry is part 8 of 13 in the series Language Model

Chain of Thought 방식을 통해 대규모 언어 모델이 복잡한 추론 문제를 해결하는 새로운 접근법을 탐구합니다. 이 방식이 산수, 상식, 기호 추론 등에서 어떻게 성능을 향상시키는지, 그리고 이러한 접근법이 모델의 추론 과정을 투명하게 만들어 인공지능 시스템의 신뢰성을 높이는 방법을 살펴봅니다.

Chain of Thought
Scroll to Top