[發(fā)明專(zhuān)利]使用機器學(xué)習推薦匹配在審

專(zhuān)利信息
申請號: 202280018971.1 申請日: 2022-03-03
公開(kāi)(公告)號: CN116964602A 公開(kāi)(公告)日: 2023-10-27
發(fā)明(設計)人: 蒂莫西·迪克·史蒂文斯 申請(專(zhuān)利權)人: 蒂莫西·迪克·史蒂文斯
主分類(lèi)號: G06N20/00 分類(lèi)號: G06N20/00;G06N3/09
代理公司: 中國貿促會(huì )專(zhuān)利商標事務(wù)所有限公司 11038 代理人: 周衡威
地址: 美國科*** 國省代碼: 暫無(wú)信息
權利要求書(shū): 暫無(wú)信息 說(shuō)明書(shū): 暫無(wú)信息
摘要: 提供用于推薦人與人之間的匹配的系統和方法。使用人工智能技術(shù)來(lái)執行數據處理。從關(guān)于已經(jīng)關(guān)于關(guān)系的質(zhì)量進(jìn)行評估的現有關(guān)系的經(jīng)驗數據訓練監督式機器學(xué)習引擎。當提供了兩個(gè)候選人的屬性的輸入數據時(shí),候選關(guān)系的質(zhì)量被計算為監督式機器學(xué)習引擎的輸出。通過(guò)將所計算的候選關(guān)系的質(zhì)量與閾值進(jìn)行比較來(lái)預測兩個(gè)候選人之間的成功關(guān)系的可能性??梢酝ㄟ^(guò)神經(jīng)網(wǎng)絡(luò )來(lái)做出該學(xué)習任務(wù)中的預測。向用戶(hù)通知可能成為成功關(guān)系的候選匹配。
搜索關(guān)鍵詞: 使用 機器 學(xué)習 推薦 匹配
【主權項】:
暫無(wú)信息
下載完整專(zhuān)利技術(shù)內容需要扣除積分,VIP會(huì )員可以免費下載。

該專(zhuān)利技術(shù)資料僅供研究查看技術(shù)是否侵權等信息,商用須獲得專(zhuān)利權人授權。該專(zhuān)利全部權利屬于蒂莫西·迪克·史蒂文斯,未經(jīng)蒂莫西·迪克·史蒂文斯許可,擅自商用是侵權行為。如果您想購買(mǎi)此專(zhuān)利、獲得商業(yè)授權和技術(shù)合作,請聯(lián)系【客服

本文鏈接:http://www.juancansuo.cn/patent/202280018971.1/,轉載請聲明來(lái)源鉆瓜專(zhuān)利網(wǎng)。

同類(lèi)專(zhuān)利
  • 一種模型訓練的方法、裝置、存儲介質(zhì)及電子設備-202310871399.X
  • 李佳霓 - 支付寶(杭州)信息技術(shù)有限公司
  • 2023-07-14 - 2023-10-27 - G06N20/00
  • 本說(shuō)明書(shū)公開(kāi)了一種模型訓練的方法、裝置、存儲介質(zhì)及電子設備,所述方法包括:確定各用戶(hù)的風(fēng)控信息,作為各無(wú)標注樣本。再確定各用戶(hù)分別對應的原始策略,以及根據待訓練的策略推薦模型,確定各用戶(hù)對各類(lèi)風(fēng)控策略的評價(jià)得分。之后,根據各用戶(hù)對應的評價(jià)得分,確定對各用戶(hù)對應的原始策略進(jìn)行調整后得到的調整策略。再根據各調整策略,對各用戶(hù)進(jìn)行測試性風(fēng)控,以確定各無(wú)標注樣本對應的標注。根據各無(wú)標注樣本以及各無(wú)標注樣本對應的標注,對待訓練的策略推薦模型進(jìn)行訓練。使得可以根據獲取到的其他類(lèi)型的樣本訓練待訓練的策略推薦模型,以使訓練完成的策略推薦模型可以在應用過(guò)程中,給出更加公平和準確的風(fēng)控策略。
  • 一種基于動(dòng)態(tài)注意力機制的聯(lián)邦學(xué)習模型訓練方法-202310884951.9
  • 王楠;劉娟;張大林 - 北京交通大學(xué)
  • 2023-07-18 - 2023-10-27 - G06N20/00
  • 本發(fā)明提供了一種基于動(dòng)態(tài)注意力機制的聯(lián)邦學(xué)習模型訓練方法。該方法包括:在每個(gè)通信輪次中,各客戶(hù)端利用本地數據樣本集和中央服務(wù)器下發(fā)的聯(lián)合模型參數采用動(dòng)態(tài)參數策略和最佳表現模型策略迭代訓練更新本地的機器學(xué)習模型,將本輪次訓練的模型參數更新信息和模型貢獻度信息上傳到中央服務(wù)器;中央服務(wù)器根據接收到的模型貢獻度信息進(jìn)行動(dòng)態(tài)注意力分配,融合參數更新信息進(jìn)行多模型安全聚合生成新的聯(lián)合模型,下發(fā)新的聯(lián)合模型參數信息給各個(gè)客戶(hù)端進(jìn)行同步更新,開(kāi)啟新一輪次的迭代訓練。本發(fā)明方法能夠動(dòng)態(tài)捕捉各參與方本地模型訓練的性能提升度,給予性能提升度大的模型更多的關(guān)注,從而改善聯(lián)合模型訓練迭代的流程及提升最終模型的性能。
  • 模型訓練的方法、裝置及電子設備-202310920108.1
  • 張妍;顧鵬;葉平;張詩(shī)杭;聶亞南;李斌 - 中國電信股份有限公司
  • 2023-07-25 - 2023-10-27 - G06N20/00
  • 本申請公開(kāi)了一種模型訓練的方法、裝置及電子設備。其中,該方法包括:獲取聯(lián)邦學(xué)習模型中參與設備對應的本地數據信息,其中,本地數據信息包括:參與設備的設備算力、參與設備的存儲資源信息和參與設備的網(wǎng)絡(luò )資源信息;確定對本地數據信息進(jìn)行聯(lián)邦學(xué)習所使用的目標架構,其中,目標架構包括以下之一:中心化聯(lián)邦架構和對等網(wǎng)絡(luò )架構;依據目標架構對本地數據信息進(jìn)行聯(lián)邦學(xué)習訓練,得到全局模型。本申請解決了傳統的聯(lián)邦學(xué)習對參與方設備的本地訓練時(shí)間預估較難的技術(shù)問(wèn)題。
  • 基于聯(lián)邦學(xué)習的模型構建方法、裝置、設備及介質(zhì)-202310954224.5
  • 孫善寶;羅清彩;韓濤;李彬;賈蔭鵬 - 山東浪潮科學(xué)研究院有限公司
  • 2023-07-31 - 2023-10-27 - G06N20/00
  • 本申請公開(kāi)了一種基于聯(lián)邦學(xué)習的模型構建方法、裝置、設備及介質(zhì),涉及聯(lián)邦學(xué)習技術(shù)領(lǐng)域,應用于云數據中心聚合節點(diǎn),包括:獲取參與方對目標梯度加密得到的加密梯度,將加密梯度存放參數隊列;目標梯度是參與方對當前模型訓練得到的;以流水線(xiàn)并行模式依次從參數隊列選取不高于目標數量個(gè)加密梯度進(jìn)行梯度聚合得到聚合梯度,可信執行環(huán)境中解密聚合梯度得到解密梯度,利用解密梯度對當前模型參數更新,流水線(xiàn)并行模式結束后得到若干更新后模型;對所有更新后模型參數聚合得到聚合模型,將聚合模型作為當前模型發(fā)送參與方,跳轉至獲取加密梯度步驟,直至最新模型收斂。以流水線(xiàn)并行模式處理聚合解密和更新過(guò)程,節省時(shí)間,提高了模型訓練效率。
  • 聯(lián)合模型的訓練方法、裝置、設備、介質(zhì)和程序產(chǎn)品-202310757701.9
  • 孫浩;李增祥 - 新奧新智科技有限公司
  • 2023-06-26 - 2023-10-27 - G06N20/00
  • 本申請公開(kāi)了一種聯(lián)合模型的訓練方法、裝置、設備、介質(zhì)和程序產(chǎn)品。所述方法包括:接收模型配置指令;模型配置指令包括樣本數據配置信息、多個(gè)模型訓練參與對象;根據樣本數據配置信息獲取各模型訓練參與對象的樣本數據,根據各模型訓練參與對象的樣本數據以及多個(gè)模型訓練參與對象對初始模型進(jìn)行仿真訓練,獲得聯(lián)合模型;基于聯(lián)合模型的性能參數和/或聯(lián)合模型的價(jià)值參數更新聯(lián)合模型的模型訓練參與對象,基于更新后的模型訓練參與對象的樣本數據對聯(lián)合模型進(jìn)行更新。采用本方法能夠仿真不同配置項下的聯(lián)合模型的更新過(guò)程,避免聯(lián)合模型的試運行造成的成本較高的問(wèn)題。
  • 控制裝置、控制方法以及非臨時(shí)性計算機可讀介質(zhì)-202310463034.3
  • 吉岡征一郎;高見(jiàn)豪;小淵惠一郎;神宮善行 - 橫河電機株式會(huì )社
  • 2023-04-26 - 2023-10-27 - G06N20/00
  • 提供一種控制裝置,具有:模型輸出獲取部,其獲取與向操作模型輸入了表示設備的狀態(tài)的狀態(tài)數據相應地輸出的操作模型輸出,所述操作模型是利用來(lái)自模擬所述設備的操作的模擬器的模擬數據以輸出與所述設備的狀態(tài)相應的行動(dòng)的方式進(jìn)行了機器學(xué)習而得到的;指標獲取部,其獲取利用來(lái)自所述設備的實(shí)際數據而計算出的用于監視所述模擬器的動(dòng)作與所述設備的實(shí)際操作的差異的指標;校正部,其基于所述指標而對所述操作模型輸出進(jìn)行校正;以及控制部,其根據所述校正的操作模型輸出而輸出用于對設置于所述設備的控制對象進(jìn)行控制的操作量。
  • 一種模型應用次數的估計方法和估計裝置-202210393265.7
  • 韓書(shū)君;李一禾;許曉東;董辰;王碧舳 - 北京郵電大學(xué)
  • 2022-04-15 - 2023-10-27 - G06N20/00
  • 本公開(kāi)提供了一種模型應用次數的估計方法和估計裝置,涉及通信技術(shù)領(lǐng)域。具體實(shí)現方案為:接收業(yè)務(wù)請求,根據業(yè)務(wù)請求確定哈希函數集的函數個(gè)數;節點(diǎn)接收模型流,計算模型流中的模型對應于每個(gè)哈希函數的哈希值;對所有模型對應的相同哈希函數的相同哈希值進(jìn)行個(gè)數統計,以得到統計數量;將模型的每個(gè)哈希函數的哈希值對應的所有統計數量中的最小統計數量作為模型的估計應用次數。本公開(kāi)通過(guò)運算得到的哈希值對模型進(jìn)行分類(lèi),并將哈希函數的方法應用到網(wǎng)絡(luò )模型整體流量的估計測量過(guò)程中,從而通過(guò)哈希函數的壓縮作用,提高了計算精確度和運算效率,并且可以減少了存儲資源占用量。
  • 聯(lián)合模型的訓練方法、訓練裝置、存儲介質(zhì)及電子設備-202310721913.1
  • 楊程屹 - 新奧新智科技有限公司
  • 2023-06-16 - 2023-10-27 - G06N20/00
  • 本公開(kāi)是關(guān)于一種聯(lián)合模型的訓練方法、聯(lián)合模型的訓練裝置、存儲介質(zhì)及電子設備。該聯(lián)合模型的訓練方法包括獲取第T輪訓練時(shí)各參與方上傳的本地模型及本地模型對應的性能度量指標的度量值;將各參與方上傳的本地模型以加權求平均的方式進(jìn)行模型聚合得到第一聯(lián)合模型,將各參與方上傳的本地模型以各參與方上傳的度量值為權重進(jìn)行加權模型聚合得到第二聯(lián)合模型;根據第一聯(lián)合模型對應的性能度量指標的估計值及第二聯(lián)合模型對應的性能度量指標的估計值,判斷各參與方中是否有參與方虛報度量值;若各參與方中有參與方虛報度量值則將虛報度量值的參與方剔除,將第二聯(lián)合模型作為第T+1輪訓練時(shí)的初始模型進(jìn)行模型訓練,如此可提高聯(lián)合模型訓練質(zhì)量。
  • 基于聯(lián)邦學(xué)習的模型訓練方法及裝置-202310810851.1
  • 林岳 - 騰訊科技(深圳)有限公司
  • 2023-07-04 - 2023-10-27 - G06N20/00
  • 公開(kāi)了一種基于聯(lián)邦學(xué)習的模型訓練方法,包括迭代執行下述步驟,直至達到預設訓練結束條件:從中心設備接收全局參數;基于全局參數,更新目標模型的本地模型參數;基于更新后的目標模型,確定目標損失函數在本地樣本數據集上的無(wú)噪梯度;向無(wú)噪梯度添加基于梯度敏感度的目標噪聲,以得到加噪梯度;基于加噪梯度,向中心設備發(fā)送本地參數,以供中心設備基于該本地參數和由參與目標模型訓練的至少一個(gè)其他訓練主體在當前迭代輪次得到的本地參數更新全局參數。根據本申請實(shí)施例的基于聯(lián)邦學(xué)習的模型訓練方法可以有效提升聯(lián)邦學(xué)習中的數據安全,避免隱私數據泄露。
  • 排版評估模型的訓練方法、裝置、設備、存儲介質(zhì)及產(chǎn)品-202211683197.4
  • 余亭浩;陳少華;王赟豪;劉浩 - 騰訊科技(深圳)有限公司
  • 2022-12-27 - 2023-10-27 - G06N20/00
  • 本申請公開(kāi)了一種排版評估模型的訓練方法、裝置、設備、存儲介質(zhì)及產(chǎn)品,涉及計算機技術(shù)領(lǐng)域。該方法包括:獲取樣本數據對,樣本數據對中包括符合圖文內容相似度要求和排版差異性要求的第一樣本排版圖文和第二樣本排版圖文,且分別對應有第一反饋標簽和第二反饋標簽;通過(guò)候選排版評估模型對第一樣本排版圖文和第二樣本排版圖文進(jìn)行排版評估分析,得到對應的第一反饋預測和第二反饋預測;基于第一反饋標簽和第二反饋標簽之間的差異關(guān)系,對第一反饋預測和第二反饋預測進(jìn)行損失確定,得到預測損失值;基于預測損失值對候選排版評估模型進(jìn)行訓練,得到排版評估模型,用于對圖文排版內容進(jìn)行閱讀反饋預測,提高了排版評估預測的準確性。
  • 模型決策方法、裝置、設備和存儲介質(zhì)-202211507532.5
  • 吳秉哲 - 騰訊科技(深圳)有限公司
  • 2022-11-28 - 2023-10-27 - G06N20/00
  • 本公開(kāi)的實(shí)施例提供了一種模型決策方法、裝置、設備和計算機可讀存儲介質(zhì)。本公開(kāi)的實(shí)施例所提供的方法通過(guò)根據特定訓練策略訓練在訓練集的不同子群上具有更好表現的多個(gè)待集成模型,并根據可學(xué)習的模型集成參數來(lái)對這些待集成模型對于測試樣本的決策結果進(jìn)行針對該測試樣本的自適應集成,以生成與該測試樣本相對應的最終聯(lián)合決策結果。通過(guò)本公開(kāi)的實(shí)施例的方法能夠針對不同測試樣本自動(dòng)地調整模型集成參數,以實(shí)現針對不同測試樣本的最優(yōu)決策結果集成,從而在不同子群上具有更優(yōu)且更公平的性能。
  • 無(wú)線(xiàn)網(wǎng)絡(luò )中安全的聯(lián)邦學(xué)習聚合方法、系統、設備及介質(zhì)-202310829896.3
  • 孫紅光;張沖;王學(xué)波;張宏鳴;李書(shū)琴;徐超;景旭;呂志明;劉敬敏 - 西北農林科技大學(xué)
  • 2023-07-07 - 2023-10-27 - G06N20/00
  • 本發(fā)明屬于無(wú)線(xiàn)通信技術(shù)領(lǐng)域,公開(kāi)了一種無(wú)線(xiàn)網(wǎng)絡(luò )中安全的聯(lián)邦學(xué)習聚合方法、系統、設備及介質(zhì),基于非對稱(chēng)密鑰加密體制進(jìn)行用戶(hù)身份認證,通過(guò)EigenTrust算法對用戶(hù)進(jìn)行可靠性分數建模,服務(wù)器構建與其關(guān)聯(lián)節點(diǎn)的可靠性分數表;在一個(gè)訓練輪次完成后,用戶(hù)首先加密身份信息并對本地模型添加差分隱私并發(fā)送給服務(wù)器,服務(wù)器驗證用戶(hù)身份后接收模型信息,計算用戶(hù)可靠性分數,該可靠性分數同時(shí)會(huì )成為下一輪可靠性分數計算時(shí)的參照;服務(wù)器根據用戶(hù)可靠性分數值將用戶(hù)模型參數按照一定比例進(jìn)行聚合,得到全局模型。本發(fā)明合理有效地防止用戶(hù)惡意破壞聯(lián)邦學(xué)習過(guò)程,保護用戶(hù)隱私,提高聯(lián)邦學(xué)習系統全局模型的正確率,保證了無(wú)線(xiàn)聯(lián)邦學(xué)習的安全性。
  • 數據處理方法、裝置、設備及存儲介質(zhì)-202310740476.8
  • 石志林 - 騰訊科技(深圳)有限公司
  • 2023-06-20 - 2023-10-27 - G06N20/00
  • 本申請實(shí)施例公開(kāi)了一種數據處理方法、裝置、設備及存儲介質(zhì),屬于計算機技術(shù)領(lǐng)域。該方法包括:在模型訓練過(guò)程中,對模型訓練數據進(jìn)行快照,得到第一日志文件,所述第一日志文件中包括模型訓練過(guò)程中生成的第一中間狀態(tài)數據以及第一結果數據;在模型訓練結束后,基于所述第一日志文件以及日志回放語(yǔ)句,對模型訓練過(guò)程進(jìn)行回放,得到第二日志文件,所述第二日志文件中包括模型訓練回放過(guò)程中產(chǎn)生的第二中間狀態(tài)數據以及第二結果數據;對所述第一日志文件以及所述第二日志文件進(jìn)行對比分析,得到模型訓練分析結果,所述模型訓練分析結果表征模型訓練過(guò)程與回放過(guò)程之間的數據變化情況;采用本申請實(shí)施例提供的方案,提高了模型訓練和開(kāi)發(fā)的效率。
  • 用于模型訓練的方法及計算設備-202310758591.8
  • 盛祥榮;程月瑤;桂孝強;趙云峰;韓曙光;朱晗;姜宇寧;許儉;鄭波;余國先 - 浙江天貓技術(shù)有限公司
  • 2023-06-25 - 2023-10-27 - G06N20/00
  • 本申請提供一種用于模型訓練的方法及計算設備。一種用于模型訓練的方法包括:準備數據樣本,所述數據樣本包含非優(yōu)勢信息和優(yōu)勢信息;設計教師模型和學(xué)生模型,其中所述學(xué)生模型用于對非優(yōu)勢信息進(jìn)行建模,所述教師模型用于對非優(yōu)勢信息和優(yōu)勢信息進(jìn)行建模;利用所述數據樣本訓練所述教師模型;通過(guò)準度兼容的序列蒸餾損失函數,將教師模型的預估能力蒸餾到所述學(xué)生模型中。根據本申請的技術(shù)方案使學(xué)生模型極大地學(xué)習到教師模型的排序能力,同時(shí)不會(huì )破壞模型的預估準度。
  • 一種訓練圖處理方法、裝置、設備及存儲介質(zhì)-202310923828.3
  • 萬(wàn)學(xué)磊;王正俊;田野 - 上海燧原科技有限公司
  • 2023-07-26 - 2023-10-27 - G06N20/00
  • 本發(fā)明公開(kāi)了一種訓練圖處理方法、裝置、設備及存儲介質(zhì)。包括:獲取訓練圖,根據預置的節點(diǎn)清單確定第一記錄數據;根據訓練圖建立優(yōu)化器的權重聯(lián)動(dòng)關(guān)系,根據權重聯(lián)動(dòng)關(guān)系確定第二記錄數據;當檢測到發(fā)送數據時(shí),根據發(fā)送數據、第一記錄數據和第二記錄數據生成訓練圖處理結果。通過(guò)節點(diǎn)清單確定不需要插入轉換算子的權重或權重梯度以生成第一記錄數據,通過(guò)訓練圖建立優(yōu)化器的權重聯(lián)動(dòng)關(guān)系,進(jìn)而生成第二記錄數據,當檢測到發(fā)送數據時(shí)可以通過(guò)判斷權重張量實(shí)現對第一記錄數據和第二記錄數據的修改,最終生成訓練圖處理結果,避免芯片在與第三方框架對接時(shí)因為格式不匹配而出現的格式轉換算子數量過(guò)多,模型訓練效率低的問(wèn)題,提升了訓練性能。
  • 使用機器學(xué)習推薦匹配-202280018971.1
  • 蒂莫西·迪克·史蒂文斯 - 蒂莫西·迪克·史蒂文斯
  • 2022-03-03 - 2023-10-27 - G06N20/00
  • 提供用于推薦人與人之間的匹配的系統和方法。使用人工智能技術(shù)來(lái)執行數據處理。從關(guān)于已經(jīng)關(guān)于關(guān)系的質(zhì)量進(jìn)行評估的現有關(guān)系的經(jīng)驗數據訓練監督式機器學(xué)習引擎。當提供了兩個(gè)候選人的屬性的輸入數據時(shí),候選關(guān)系的質(zhì)量被計算為監督式機器學(xué)習引擎的輸出。通過(guò)將所計算的候選關(guān)系的質(zhì)量與閾值進(jìn)行比較來(lái)預測兩個(gè)候選人之間的成功關(guān)系的可能性??梢酝ㄟ^(guò)神經(jīng)網(wǎng)絡(luò )來(lái)做出該學(xué)習任務(wù)中的預測。向用戶(hù)通知可能成為成功關(guān)系的候選匹配。
  • 一種基于聯(lián)盟鏈的可信聯(lián)邦學(xué)習方法及系統-202311216926.X
  • 張信明;尹校軍;劉青林 - 中國科學(xué)技術(shù)大學(xué)
  • 2023-09-20 - 2023-10-27 - G06N20/00
  • 本發(fā)明公開(kāi)了一種基于聯(lián)盟鏈的可信聯(lián)邦學(xué)習方法及系統,包括:S1:利用中央管理鏈對多個(gè)參與訓練的參與方的算力進(jìn)行檢測后分配到多個(gè)算力不同的私鏈中以構建私鏈;S2:每條私鏈通過(guò)選舉算法產(chǎn)生一個(gè)或多個(gè)參與方作為參與中央管理鏈共識的領(lǐng)導節點(diǎn);S3:各參與方基于本地數據進(jìn)行模型訓練得到本地模型參數,將所有當前參與方的本地模型參數上傳到當前私鏈中,私鏈將融合后的本地模型參數上傳到中央管理鏈;S4:中央管理鏈對上傳的融合后的本地模型參數執行模型更新合約后得到全局模型參數,將全局模型參數回傳到私鏈中作為下一輪參與方訓練的本地數據,傳輸回給各參與方,直至模型訓練結束;該學(xué)習方法及系統提升了整個(gè)系統的安全性。
  • 用戶(hù)數據識別模型更新方法、用戶(hù)數據識別方法及裝置-202210328635.9
  • 劉希玉 - 中國移動(dòng)通信集團遼寧有限公司;中國移動(dòng)通信集團有限公司
  • 2022-03-31 - 2023-10-27 - G06N20/00
  • 本申請公開(kāi)了一種用戶(hù)數據識別模型更新方法、用戶(hù)數據識別方法及裝置。用戶(hù)數據識別模型更新方法,包括:獲取第一訓練數據和待更新的第一識別模型,第一識別模型包括標簽識別輸出層;根據第一訓練數據對第一識別模型進(jìn)行訓練,得到第二識別模型和第二識別模型識別能力的評估值;當評估值大于或等于預設閾值時(shí),根據預設權重調整規則,對第一識別模型進(jìn)行迭代訓練,直到評估值小于預設閾值,將第二識別模型的包括標簽識別輸出層的第一遷移權重作為目標遷移權重,評估值小于預設閾值對應的第二識別模型作為目標識別模型。根據本申請實(shí)施例,能夠提高更新后的識別模型的對用戶(hù)數據識別的準確率。
  • 模型獲取方法及系統、第一NWDAF網(wǎng)元-202210379252.4
  • 于夢(mèng)晗;李鵬宇;賈靖 - 中國電信股份有限公司
  • 2022-04-12 - 2023-10-27 - G06N20/00
  • 本公開(kāi)涉及模型獲取方法及系統、具有模型訓練邏輯功能的第一NWDAF網(wǎng)元。由第一NWDAF網(wǎng)元執行的模型獲取方法包括:接收來(lái)自具有分析邏輯功能的第二NWDAF網(wǎng)元的模型請求,模型請求包括當前任務(wù)分析標識和當前分析任務(wù)的任務(wù)需求且用于獲取執行當前分析任務(wù)的機器學(xué)習模型;在不存在模型分析標識與當前任務(wù)分析標識相同且滿(mǎn)足任務(wù)需求的機器學(xué)習模型的情況下,獲取模型分析標識與當前任務(wù)分析標識之間的關(guān)聯(lián)度大于關(guān)聯(lián)度閾值的至少一個(gè)候選機器學(xué)習模型及其模型相關(guān)信息,模型相關(guān)信息包括模型地址;基于至少一個(gè)候選機器學(xué)習模型,確定目標機器學(xué)習模型;發(fā)送當前任務(wù)分析標識及其對應的目標機器學(xué)習模型的模型地址到第二NWDAF網(wǎng)元。
  • 無(wú)人集群智能模型訓練方法、裝置和電子設備-202211087378.0
  • 姚海鵬;許佳琪;吳巍;張尼;買(mǎi)天樂(lè );袁菀邁;劉全占;忻向軍;張茹 - 北京郵電大學(xué)
  • 2022-09-07 - 2023-10-27 - G06N20/00
  • 本發(fā)明提供了一種無(wú)人集群智能模型訓練方法、裝置和電子設備,涉及通信的技術(shù)領(lǐng)域,該方法將無(wú)人集群的訓練劃分為簇內集中式聯(lián)邦學(xué)習和簇間分布式聯(lián)邦學(xué)習兩個(gè)階段,簇內集中式學(xué)習時(shí),簇頭作為模型所有者來(lái)和簇內節點(diǎn)進(jìn)行參數傳遞,并進(jìn)行模型聚合,從而緩解了傳統的集中式聯(lián)邦學(xué)習方式存在的通信擁塞和計算瓶頸的技術(shù)問(wèn)題;并且,簇間分布式學(xué)習時(shí),由于只有鄰居簇頭間進(jìn)行參數傳輸和模型聚合,所以與傳統分布式聯(lián)邦學(xué)習相比,本發(fā)明還能有效地減少通信能耗。
  • 一種用于訓練缺失條件下的文本處理方法及處理系統-202310908660.9
  • 夏東 - 湖南視覺(jué)偉業(yè)智能科技有限公司
  • 2023-07-24 - 2023-10-27 - G06N20/00
  • 本發(fā)明涉及數據處理技術(shù)領(lǐng)域,公開(kāi)了一種用于訓練缺失條件下的文本處理方法及系統,包括:基于目標小樣本文本建立負樣本數據集,并基于負樣本增強算法對負樣本數據集進(jìn)行增強得到增強負樣本數據集;基于目標小樣本文本構建訓練模型,并將訓練模型的輸出層替換成雙指針網(wǎng)絡(luò )得到目標處理模型;將增強負樣本數據集輸入目標處理模型中得到損失函數,并對損失函數進(jìn)行優(yōu)化得到目標函數;通過(guò)目標函數對目標小樣本文本進(jìn)行解碼處理;本發(fā)明解決了現有的訓練數據缺失條件下文本處理精度較低的問(wèn)題。
  • 一種去中心化的聯(lián)邦聚類(lèi)學(xué)習方法、裝置、設備及介質(zhì)-202211274810.7
  • 孫銀銀;李仲平 - 上海零數眾合信息科技有限公司
  • 2022-10-18 - 2023-10-27 - G06N20/00
  • 本發(fā)明公開(kāi)了一種去中心化的聯(lián)邦聚類(lèi)學(xué)習方法、裝置、設備及介質(zhì)。該方法包括:由任務(wù)發(fā)起方執行,基于預設聚類(lèi)算法和預設加密算法,與至少兩個(gè)數據方進(jìn)行交互,確定最優(yōu)初始聚類(lèi)中心和至少兩個(gè)初始簇;在對最優(yōu)初始聚類(lèi)中心和初始簇迭代更新的過(guò)程中,確定聯(lián)合數據集中的各樣本到各個(gè)簇的距離,并基于預設加密算法,獲取聯(lián)合數據集中的各樣本相對于本次聚類(lèi)中心的總距離,根據總距離,與至少兩個(gè)數據方交互,確定三方的總距離;根據總距離,確定是否滿(mǎn)足預設的迭代終止條件,若是,則確定最后一次迭代更新后的聚類(lèi)中心為最終聚類(lèi)中心??梢栽诒WC任務(wù)發(fā)起方和數據方隱私安全的前提下,實(shí)現高效的聯(lián)合聚類(lèi)學(xué)習。
  • 模型訓練方法、裝置及系統-201910599381.2
  • 陳超超;李梁;王力;周俊 - 創(chuàng )新先進(jìn)技術(shù)有限公司
  • 2019-07-04 - 2023-10-27 - G06N20/00
  • 本公開(kāi)提供用于訓練線(xiàn)性/邏輯回歸模型的方法和裝置,在該方法中,對特征樣本集進(jìn)行垂直?水平切分轉換,以得到各個(gè)訓練參與方的轉換特征樣本子集?;诟鱾€(gè)訓練參與方的當前轉換子模型和轉換特征樣本子集獲得當前預測值。在第一訓練參與方處,確定預測差值和第一模型更新量,對第一模型更新量進(jìn)行分解并將第一部分模型更新量發(fā)送給第二訓練參與方。在第二訓練參與方處,基于預測差值和對應的轉換特征樣本子集得到第二模型更新量并進(jìn)行分解,將第二部分模型更新量發(fā)送給第一訓練參與方。在各個(gè)訓練參與方處,基于各自的部分模型更新量來(lái)更新各自的轉換子模型。在滿(mǎn)足循環(huán)結束條件時(shí),基于各個(gè)訓練參與方的轉換子模型確定各自的子模型。
  • 一種無(wú)人機輔助聯(lián)邦學(xué)習的方法-202310924514.5
  • 鮑楠;陳嘉旭;孫希霞;師曉曄;潘甦 - 南京郵電大學(xué)
  • 2023-07-25 - 2023-10-24 - G06N20/00
  • 本發(fā)明提供一種無(wú)人機輔助聯(lián)邦學(xué)習的方法,將車(chē)輛機動(dòng)性、激勵決策、遷移問(wèn)題綜合考慮。針對參與者不愿意無(wú)條件貢獻他們的資源進(jìn)行本地模型訓練的問(wèn)題,設計一種公平的激勵機制和信任模型,以鼓勵參與者上傳可靠的模型更新,加入聯(lián)邦學(xué)習任務(wù)。本發(fā)明針對車(chē)輛的移動(dòng)性,提出了利用無(wú)人機服務(wù)遷移和無(wú)人機移動(dòng)的雙向機制來(lái)保證聯(lián)邦學(xué)習任務(wù)的完整進(jìn)行。同時(shí)考慮到用戶(hù)車(chē)輛的參與意愿,本發(fā)明設計了基于博弈論的用戶(hù)車(chē)輛激勵方法,用戶(hù)車(chē)輛和無(wú)人機能夠制定相應決策,最大化各自的效用。
  • 一種基于機器學(xué)習的物聯(lián)網(wǎng)數據挖掘方法及系統-202311151324.0
  • 徐緩;王國志;周騁 - 蘇州訊途益智能科技有限公司
  • 2023-09-07 - 2023-10-24 - G06N20/00
  • 本發(fā)明涉及數據挖掘技術(shù)領(lǐng)域,尤其涉及一種基于機器學(xué)習的物聯(lián)網(wǎng)數據挖掘方法及系統。對分布式物聯(lián)網(wǎng)數據采集節點(diǎn)進(jìn)行實(shí)時(shí)物聯(lián)網(wǎng)數據采集及預處理,生成標準物聯(lián)網(wǎng)數據;對標準物聯(lián)網(wǎng)數據進(jìn)行關(guān)鍵物聯(lián)網(wǎng)數據提取,生成關(guān)鍵物聯(lián)網(wǎng)數據;對關(guān)鍵物聯(lián)網(wǎng)數據進(jìn)行物聯(lián)網(wǎng)特征數據提取及特征數據關(guān)聯(lián),生成關(guān)聯(lián)物聯(lián)網(wǎng)特征數據;利用決策樹(shù)算法與關(guān)聯(lián)物聯(lián)網(wǎng)特征數據進(jìn)行物聯(lián)網(wǎng)數據的挖掘學(xué)習模型建立及優(yōu)化,生成優(yōu)化物聯(lián)網(wǎng)數據挖掘模型;將優(yōu)化物聯(lián)網(wǎng)數據挖掘模型配置在分布式物聯(lián)網(wǎng)數據采集節點(diǎn)進(jìn)行數據節點(diǎn)的自動(dòng)化數據挖掘分析,生成自動(dòng)化數據挖掘學(xué)習模型。本發(fā)明使得物聯(lián)網(wǎng)數據對數據挖掘更加精簡(jiǎn)及自動(dòng)化。
  • 用于機器學(xué)習的圖像變換-202310810057.7
  • 卡雷爾·丹尼爾·基勒布魯;拉維·納拉亞納斯瓦米;禹同爀 - 谷歌有限責任公司
  • 2019-01-30 - 2023-10-24 - G06N20/00
  • 本申請公開(kāi)了一種用于機器學(xué)習的圖像變換的方法、系統和裝置,包括用于確定圖像變換的像素坐標和用于存儲變換后的圖像數據的存儲器地址的裝置。在一些實(shí)現方式中,一種系統包括:處理單元,該處理單元被配置成使用機器學(xué)習模型和圖像的像素值來(lái)對圖像執行機器學(xué)習計算;存儲介質(zhì),該存儲介質(zhì)被配置成存儲像素值;以及存儲器地址計算單元,該存儲器地址計算單元包括一個(gè)或多個(gè)硬件處理器。處理器被配置成接收圖像的圖像數據并且確定圖像的尺寸與機器學(xué)習模型的尺寸不匹配。作為響應,處理器確定圖像的變換版本的像素坐標,并且對于像素坐標中的每一個(gè),確定在存儲介質(zhì)中用于存儲將用于生成機器學(xué)習模型的輸入的像素值的存儲器地址。
  • 聯(lián)邦模型訓練效果預測方法、裝置、電子設備及存儲介質(zhì)-202310921110.0
  • 馬麗萌;歐陽(yáng)曄;王首峰 - 亞信科技(中國)有限公司
  • 2023-07-25 - 2023-10-24 - G06N20/00
  • 本申請實(shí)施例提供了一種聯(lián)邦模型訓練效果預測方法、裝置、電子設備及存儲介質(zhì),涉及計算機技術(shù)領(lǐng)域。該方法包括:接收應用服務(wù)器發(fā)送的網(wǎng)絡(luò )質(zhì)量參數預測請求;根據各第一終端的標識信息和各第一終端的模型訓練信息獲取各第一終端的各網(wǎng)絡(luò )質(zhì)量參數預測結果;將各第一終端的各網(wǎng)絡(luò )質(zhì)量參數預測結果發(fā)送至應用服務(wù)器,以使應用服務(wù)器根據各第一終端的模型傳輸時(shí)延確定第二終端,并根據各第二終端的各網(wǎng)絡(luò )質(zhì)量參數預測結果獲取聯(lián)邦模型訓練效果預測結果。在聯(lián)邦模型訓練開(kāi)始前,借助網(wǎng)絡(luò )數據進(jìn)行分析,在聯(lián)邦模型訓練開(kāi)始前預測出模型的訓練效果,使本領(lǐng)域人員可以根據預測的訓練效果對模型的訓練設置進(jìn)行調整,能有效提高聯(lián)邦模型的訓練效率和質(zhì)量。
  • 一種基于抑郁癥的小樣本機器學(xué)習方法-202310989839.1
  • 陳超;宋彪;韓澤文 - 內蒙古衛數數據科技有限公司
  • 2023-08-07 - 2023-10-24 - G06N20/00
  • 本發(fā)明公開(kāi)了一種基于抑郁癥的小樣本機器學(xué)習方法,包括以下步驟:數據集采集,小樣本初始化模型構建:利用步驟采集的抑郁癥數據集進(jìn)行抑郁癥小樣本初始化模型的構建;增量數據選擇;小樣本優(yōu)化模型構建,利用目標數據集進(jìn)行新的小樣本優(yōu)化模型構建;集成子模型構建:利用抑郁癥典型軀體癥狀數據集進(jìn)行多個(gè)集成子模型的構建;集成模型構建:利用小樣本優(yōu)化模型和多個(gè)集成子模型,進(jìn)行最優(yōu)準確率賦權集成,形成最終的小樣本機器學(xué)習模型。本發(fā)明采用上述一種基于抑郁癥的小樣本機器學(xué)習方法,解決現有技術(shù)中抑郁癥小樣本機器學(xué)習性能較差的問(wèn)題,用于對抑郁癥小樣本數據增強并利用于機器學(xué)習技術(shù),提升機器學(xué)習模型的泛化能力。
專(zhuān)利分類(lèi)
×

專(zhuān)利文獻下載

說(shuō)明:

1、專(zhuān)利原文基于中國國家知識產(chǎn)權局專(zhuān)利說(shuō)明書(shū);

2、支持發(fā)明專(zhuān)利 、實(shí)用新型專(zhuān)利、外觀(guān)設計專(zhuān)利(升級中);

3、專(zhuān)利數據每周兩次同步更新,支持Adobe PDF格式;

4、內容包括專(zhuān)利技術(shù)的結構示意圖、流程工藝圖技術(shù)構造圖;

5、已全新升級為極速版,下載速度顯著(zhù)提升!歡迎使用!

請您登陸后,進(jìn)行下載,點(diǎn)擊【登陸】 【注冊】

關(guān)于我們 尋求報道 投稿須知 廣告合作 版權聲明 網(wǎng)站地圖 友情鏈接 企業(yè)標識 聯(lián)系我們

鉆瓜專(zhuān)利網(wǎng)在線(xiàn)咨詢(xún)

400-8765-105周一至周五 9:00-18:00

咨詢(xún)在線(xiàn)客服咨詢(xún)在線(xiàn)客服
tel code back_top