Excerpt from PDF:
CARE: A QLORA-FINE TUNED MULTI-DOMAIN CHATBOT WITH FAST LEARNING ON MINIMAL HARDWARE Ankit Dutta Department of Geology and Geophysics Indian Institute of Technology, Kharagpur ankitdutta@kgpian.iitkgp.ac.in Nabarup Ghosh Department of Geology and Geophysics Indian Institute of Technology, Kharagpur nabarupghosh@kgpian.iitkgp.ac.in Ankush Chatterjee∗ Department of Electrical Engineering Indian Institute of Technology, Kharagpur ankushch707@kgpian.iitkgp.ac.in ABSTRACT Large Language models have demonstrated excellent domain-specific question-answering capabilities when finetuned with a particular dataset of that specific domain. However, fine-tuning the models requires a significant amount of training time and a considerable amount of hardware. In this work, we propose CARE (Customer Assistance and Response Engine), a lightweight model made by fine-tuning Phi3.5-mini on very minimal hardware and data, designed to handle queries primarily across three domains: telecommunications support, medical support, and banking support. For telecommunications and banking, the chatbot addresses issues and problems faced by customers regularly in the above-mentioned domains. In the medical domain, CARE provides preliminary support by offering basic diagnoses and medical suggestions that a user might take before consulting a healthcare professional. Since CARE is built on Phi3.5-mini, it can be used even on mobile devices, increasing its usability. Our research also shows that CARE performs relatively well on various medical benchmarks, indicating that it can be used to make basic medical suggestions. Keywords LLMs · Finetuning · QLoRA 1 Introduction The application of LLMs in industry-specific domains has gained considerable attention in recent years. LLM models are finetuned on a specific domain with a particular dataset and then used for a variety of purposes. Several previous works have explored fine-tuning LLMs for domain-specific applications to enhance their performance in specialized tasks. BioBERT is a domain-specific adaptation of BERT, fine- tuned on PubMed abstracts and full-text biomedical liter- ature. This fine-tuning enables BioBERT to outperform general-purpose models on biomedical text mining tasks such as named entity recognition (NER), relation extrac- tion, and question answering [1]. FinBERT is a BERT-based model fine-tuned on financial documents, reports, and news to enhance its understanding of finance-related texts. It has been used for sentiment analysis, risk assessment, and fraud detection, significantly improving upon non-domain-specific models [2]. However, these models solve the problems of a single do- main. If anyone wants to get a model proficient in various domains and yet at the same time be lightweight, then pre- viously they must have used a text classifier which could classify the domain of the text and then direct it to the domain specific model based on the classification. This induces chances of error and at the same time increases memory requirements significantly. Hence, In this work, we introduce CARE, a lightweight model based on Phi-3.5-mini, fine-tuned using QLoRA (Quantized Low Rank Adaptation) to enable efficient multi-domain conversational assistance. Unlike traditional fine-tuning approaches that update all model parameters, ∗Corresponding Author CARE: A QLoRA-Fine Tuned Multi-Domain Chatbot with Fast Learning on Minimal Hardware QLoRA fine-tunes only a subset of the model’s weights, reducing memory usage and computational costs [3]. This model is proficient in solving multi-domain problems and yet it …더보기
This paper was uploaded based on materials provided by arXiv.
This paper is an open academic resource, and the original text can be accessed on arXiv.
Source: arXiv – A free repository for scientific and technical researchers.
This paper is provided for academic research purposes, and the original can be downloaded from arXiv.
Visit arXiv to explore more recent papers!
번역 (Translation):
CARE : 최소 하드웨어 Ankit Dutta 지질학 및 지구 물리학과에 대한 빠른 학습을 통해 Qlora-Fine Tuned Multi-Domain 챗봇, Kharagpur ankitdutta@kgpian.iitkgp.ac.in Nabarup Ghosh Gohosh 및 Geophysics Indiation of Institute, Kharagpur nabarupghosh@kgpian.iitkgp.ac.in ankush chatterjee * 전기 공학과, 인도 기술 연구소, Kharagpur ankushch707@kgpian.iitkgp.ac.in의 대형 언어 모델은 우수한 도메인-특이 적 질문-대담한 기능을 보여 주었을 때 우수한 도메인-특이 적 질문-전쟁 능력을 보여 주었다. 그러나 모델을 미세 조정하려면 상당한 양의 교육 시간과 상당한 양의 하드웨어가 필요합니다. 이 작업에서 우리는 매우 최소한의 하드웨어 및 데이터에서 PHI3.5-MINI를 미세 조정하여 만든 가벼운 모델 인 Care (고객 지원 및 응답 엔진)를 제안합니다. 주로 통신 지원, 의료 지원 및 은행 지원의 세 가지 도메인에서 쿼리를 처리하도록 설계되었습니다. 통신 및 은행의 경우 챗봇은 위에서 언급 한 도메인에서 정기적으로 고객이 직면 한 문제와 문제를 해결합니다. 의료 영역에서 Care는 의료 전문가와상의하기 전에 사용자가 취할 수있는 기본 진단 및 의료 제안을 제공함으로써 예비 지원을 제공합니다. CARE는 PHI3.5-MINI에 대한 CARE를 구축하기 때문에 모바일 장치에서도 사용될 수있어 유용성을 증가시킬 수 있습니다. 우리의 연구에 따르면 치료는 다양한 의료 벤치 마크에서 비교적 잘 수행되어 기본적인 의학적 제안을하는 데 사용될 수 있음을 나타냅니다. 키워드 LLMS · FINETUNING · QLORA 1 소개 업계 별 영역에서 LLM의 적용은 최근 몇 년 동안 상당한 관심을 끌었습니다. LLM 모델은 특정 데이터 세트가있는 특정 도메인에 미세 구성되며 다양한 목적으로 사용됩니다. 이전의 몇 가지 이전 작품은 전문 작업에서 성능을 향상시키기 위해 도메인 별 응용 프로그램을위한 미세 조정 LLM을 탐색했습니다. Biobert는 Bert의 도메인 별 적응으로, PubMed 초록 및 전체 텍스트 생물 의학 리터 구역에 미세 조정되었습니다. 이 미세 조정을 통해 Biobert는 명명 된 엔티티 인식 (NER), 관계 추적 및 질문 답변과 같은 생의학 텍스트 마이닝 작업에 대한 일반 목적 모델을 능가 할 수 있습니다 [1]. Finbert는 재무 관련 텍스트에 대한 이해를 향상시키기 위해 재무 문서, 보고서 및 뉴스에 미세 조정 된 버트 기반 모델입니다. 그것은 정서 분석, 위험 평가 및 사기 탐지에 사용되어 비 도메인 별 모델을 크게 향상시켰다 [2]. 그러나 이러한 모델은 단일 주제의 문제를 해결합니다. 누군가가 다양한 도메인에서 능숙한 모델을 얻고 싶지만 동시에 가벼운 사람이 되려면 텍스트 분류기를 사용하여 텍스트의 도메인을 분류 한 다음 분류에 따라 도메인 특정 모델로 지시 할 수 있어야합니다. 이것은 오류 가능성을 유발하고 동시에 메모리 요구 사항을 크게 증가시킵니다. 따라서이 작업에서 우리는 효율적인 다중 도메인 대화 지원을 가능하게하기 위해 Qlora (양자 저급 적응)를 사용하여 미세 조정 된 PHI-3.5-MINI를 기반으로 한 경량 모델을 신중합니다. 모든 모델 매개 변수를 업데이트하는 기존의 미세 조정 접근법과 달리 * 해당 저자 관리 : 최소 하드웨어 Qlora 미세 조작에 대한 빠른 학습을 통해 Qlora-Fine Tuned Multi-Domain Chatbot과 모델의 가중치의 하위 집합 만 메모리 사용량과 계산 비용을 줄입니다 [3]. 이 모델은 다중 도메인 문제를 해결하는 데 능숙하지만 … 더보기
이 논문은 arXiv에서 제공되는 자료를 바탕으로 업로드되었습니다.
본 논문은 공개된 학술 자료이며, 원문은 arXiv에서 확인할 수 있습니다.
출처: arXiv – 과학 및 기술 연구자들을 위한 무료 논문 저장소.
이 논문은 학술 연구 목적으로 제공되며, 원문은 arXiv에서 다운로드할 수 있습니다.
더 많은 최신 논문을 보려면 arXiv를 방문하세요!