۲۵,۰۰۰ تومان

۰ از ۵
از میانگین ۰ نظر دهنده

مقاله یادگیری فدرال شخصی شده ارتباطی کارآمد برای ت...

هیچ فروشگاهی با فیلترهای منتخب شما وجود ندارد.
پیشنهاد می‌کنیم فیلترها را تغییر دهید

پیشنهاد ویژه فروشندگان

مشخصات فنی

مشخصات فنی مقاله یادگیری فدرال شخصی شده ارتباطی کارآمد برای ت...
مشخصات
تعداد صفحات 7
چکیده To protect privacy and meet legal regulations, federated learning (FL) has gained significant attention for training speech-to-text (S2T) systems, including automatic speech recognition (ASR) and speech translation (ST). However, the commonly used FL approach (i.e., \textsc{FedAvg}) in S2T tasks typically suffers from extensive communication overhead due to multi-round interactions based on the whole model and performance degradation caused by data heterogeneity among clients.To address these issues, we propose a personalized federated S2T framework that introduces \textsc{FedLoRA}, a lightweight LoRA module for client-side tuning and interaction with the server to minimize communication overhead, and \textsc{FedMem}, a global model equipped with a $k$-nearest-neighbor ($k$NN) classifier that captures client-specific distributional shifts to achieve personalization and overcome data heterogeneity. Extensive experiments based on Conformer and Whisper backbone models on CoVoST and GigaSpeech benchmarks show that our approach significantly reduces the communication overhead on all S2T tasks and effectively personalizes the global model to overcome data heterogeneity.
چکیده به فارسی (ترجمه ماشینی) برای محافظت از حریم خصوصی و رعایت مقررات قانونی ، یادگیری فدراسیون (FL) برای آموزش سیستم های گفتار به متن (S2T) ، از جمله تشخیص خودکار گفتار (ASR) و ترجمه گفتار (ST) توجه قابل توجهی را به خود جلب کرده است.با این حال ، رویکرد FL متداول (به عنوان مثال ، \ textsc {fedavg}) در کارهای S2T به طور معمول از سربار ارتباطات گسترده به دلیل تعامل چند دور بر اساس کل مدل و تخریب عملکرد ناشی از ناهمگونی داده در بین مشتریان رنج می برد. برای پرداختن به این موضوعات، ما یک چارچوب S2T فدراسیون شخصی را پیشنهاد می کنیم که \ textsc {fedlora} ، یک ماژول لورا سبک وزن برای تنظیم سمت مشتری و تعامل با سرور برای به حداقل رساندن سربار ارتباطات ، و \ textsc {fedmem} ، یک مدل جهانی مجهز به $ k است.طبقه بندی کننده $-Nearest-Deighbor ($ k $ nn) که برای دستیابی به شخصی سازی و غلبه بر ناهمگونی داده ها ، تغییرات توزیع خاص مشتری را ضبط می کند.آزمایش های گسترده ای بر اساس مدل های ستون فقرات Conformer و Whisper بر روی معیارهای گوسفند و gigaspeech نشان می دهد که رویکرد ما به طور قابل توجهی سربار ارتباطات را در تمام کارهای S2T کاهش می دهد و به طور مؤثر مدل جهانی را برای غلبه بر ناهمگونی داده ها شخصی می کند.
زبان مقاله انگلیسی
عنوان مقاله به انگلیسی Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks
عنوان مقاله به فارسی یادگیری فدرال شخصی شده ارتباطی کارآمد برای تسک های گفتار به متن
فرمت مقاله PDF
نویسندگان Yichao Du, Zhirui Zhang, Linan Yue, Xu Huang, Yuqing Zhang, Tong Xu, Linli Xu, Enhong Chen
مشاهده بیشتر
نظرات کاربران
هیچ نظری ثبت نشده است.

کالاهای مشابه