go top

information entropy

  • [计][图情] 信息熵

网络释义专业释义

 

... 信息论信道 i theoretic channel (信息论) information entropy 牛津辩论学会 oxford union society ...

基于4206个网页-相关网页

  [计] [图情] 信息熵

第2章预备知识 第2章预备知识2.1模糊熵的公式 在信息论中,信息熵information entropy)是一个非常基本并有重要应用的概念,它描述了一个概率分布的不确定程度。

基于739个网页-相关网页

  熵值法

熵值法

基于1个网页-相关网页

短语

variance weighted information entropy 方差加权信息熵

information entropy and equilibrium degree 信息熵和均衡度

Mutual Information Entropy 共有信息平均值 ; 以及交互信息熵 ; 互信息熵 ; 提出一种基于互信息熵

shannon information entropy shannon信息熵 ; 信息熵

maximum information entropy principle 最大信息熵原理

Geographic Information Entropy 信息熵

 更多收起网络短语
  • 信息熵 - 引用次数:379

    参考来源 - 粗糙集属性约简算法在数据挖掘中的研究
    信息墒 - 引用次数:1

    参考来源 - 一种新的基于属性
    讯息熵
    资讯熵
  • 信息熵 - 引用次数:133

    Attribute dependent relation is proposed based on the information entropy andthe knowledge expression system.

    2.提出了基于信息熵和知识表达体系的属性依赖关系。

    参考来源 - 面向数字城市的复杂性研究
    熵权系数法 - 引用次数:3

    At second, information entropy is applied to quantify the assessment of the control activities for the effectiveness and the cost to evaluate the internal control over financial reporting.

    其次,在财务报告内部控制控制活动的评价的问题上,使用熵权系数法来评价财务报告内部控制流程的控制活动的有效性和成本问题。

    参考来源 - 在美上市公司财务报告内部控制流程评价定量分析方法研究
  • 信息熵 - 引用次数:79

    First, this thesis studies the application of time-domain information entropy into fault discrimination.

    论文首先研究了时域信息熵测度在变压器励磁涌流和故障电流识别中的应用。

    参考来源 - 基于信息测度的电力系统故障识别方法研究
    信息嫡 - 引用次数:2

    参考来源 - 基于数据挖掘技术的电力负荷预测研究

·2,447,543篇论文数据,部分数据来源于NoteExpress

双语例句权威例句

  • A score function for optimization based on maximum mutual information entropy with odditional restriction is proposed.

    提出了基于最大信息具有奇数约束优化得分函数

    youdao

  • MIBARK algorithm defined the attribute importance using the information entropy.

    MIBARK算法基于信息论的方法,信息定义属性重要性

    youdao

  • And then a relative attribute reduction algorithm is mentioned based on information entropy.

    后面提到了基于信息相对属性约简算法

    youdao

更多双语例句
  • The information entropy of Chinese characters is 11.3 while the information entropy of English characters is 4.7.

    FORBES: Sina's Solid Q4 Shows Competition Fears Overblown

  • This is the final entropy law from the fertile mind and mathematics of Claude Shannon of MIT and Bell Labs, who defined information as unexpected bits. (Predictable bits convey no information content, no entropy.) Information entropy is measured by its surprisal.

    FORBES: Magazine Article

$firstVoiceSent
- 来自原声例句
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定