「ベクトル和」に関連した中国語例文の一覧 -中国語例文検索

中国語辞書 - Weblio日中中日辞典 中国語例文
約36万の例文を収録
 
  手書き文字入力


Weblio 辞書 > Weblio 日中中日辞典 > ベクトル和の意味・解説 > ベクトル和に関連した中国語例文


「ベクトル和」の部分一致の例文検索結果

該当件数 : 166



<前へ 1 2 3 4

さらに、可逆符号化部16は、イントラ予測部24から供給される予測モード、又は、動き検出/動き補償部25から供給される動きベクトル、及び、予測モードや、記憶制御部71から供給されるMMCOコマンド(及び必要な引数)を符号化し、符号化データのヘッダ等に含めて、蓄積バッファ17を介して出力する。

可逆编码单元 16对从内预测单元 24提供来的预测模式或从运动检测 /补偿单元 25提供来的运动向量和从存储控制单元 71提供来的预测模式或 MMCO命令 (以及必要的参数 )进行编码,将所得到的数据包括在经编码数据的头部等中,并通过累积缓冲器 17输出经编码数据。 - 中国語 特許翻訳例文集

ここでは、ステップS100で算出したフレーム全体動きベクトルに基づいて、第1の画像データと第2の画像データとの間の位置ずれを補正した後、位置ずれ補正後の第1の画像データおよび第2の画像データを、同一の合成比(合成比α=0.5)で合成する単純合成処理を行う。

其中,根据步骤 S100计算出的帧整体运动矢量,校正第 1图像数据与第 2图像数据之间的位置偏差,之后进行以相同合成比 (合成比α= 0.5)将校正位置偏差之后的第 1图像数据和第 2图像数据合成起来的单纯合成处理。 - 中国語 特許翻訳例文集

本発明によれば、パラメータ抽出部が抽出したパラメータからなる分類特徴ベクトルと数値条件とに基づいて、障害有無分類部が障害の有無、種類を分類するようにしたので、パラメータの数値条件によって定められた範囲に基づいて的確なネットワーク障害の有無、障害の種類を判断することができる。

根据本发明,故障有无分类部根据由参数提取部提取出的参数构成的分类特征向量和数值条件对故障的有无、种类进行分类,因此能够根据利用参数的数值条件而确定的范围准确地判断网络故障的有无、故障的种类。 - 中国語 特許翻訳例文集

マクロブロックの予測タイプが画面間予測の場合は、動き補償部106が参照ピクチャ情報や動きベクトル情報を用いて動き補償画像データを生成し、加算演算部107で、動き補償画像データと予測残差画像データとを加算し、復号化画像データを生成してピクチャメモリ103に格納する(S305)。

在宏块的预测类型是画面间预测的情况下,运动补偿部 106利用参考图像信息或运动矢量信息生成运动补偿图像数据,在加法运算部 107对运动补偿图像数据和预测残差图像数据进行加法运算来生成解码图像数据,并存储到图像存储器 103(S305)。 - 中国語 特許翻訳例文集

図3の予測対象ブロック選択器202、図5の判定器231ならびに図6の探索領域設定器240は、この情報を、予測対象ブロック504の付加情報に含まれる予測モードから識別できる(予測対象ブロック504の予測モードが画面内予測であり、動きベクトルと参照フレーム番号を有していない)。

图 3的预测对象块选择器 202、图 5的判定器 231以及图 6的搜索区域设定器 240能够从预测对象块 504的附加信息所包含的预测模式中识别该信息 (预测对象块 504的预测模式为画面内预测,不具有运动矢量和参照帧编号 )。 - 中国語 特許翻訳例文集

S1では、CPU40は、VRAM43に現在記憶されている第2画像データ(基準撮像部からの画像データ)におけるAF評価エリアR1−Lの中心座標(X,Y)を設定し、指定したAF評価エリアR1−L内の特徴点およびそれに対応する第1画像データの点である対応点の検出と検出された特徴点および対応点に基づく最終視差ベクトル(Δx,Δy)の算出を行うよう視差量算出部82を制御する(図4参照)。

在 S1中,CPU 40设定当前被存储在 VRAM 43中的第二图像数据 (来自基准成像单元的图像数据 )中的 AF评估区域 R1-L中的中心坐标 (X,Y),并控制视差量计算单元 82以检测所指定 AF评估区域 R1-L中的特征点和第一图像数据中的作为与特征点相对应的点的对应点,并基于已检测的特征点和对应点来执行最终视差矢量 (Δx,Δy)的计算。 - 中国語 特許翻訳例文集

また、ステップST501においては、過去の画像に対する現在の画像の動きを検知するために、一般的に広く知られている全探索やOAT(One at a time)等の手法を用いた動き検出を行っても良いが、単に、現在の画像と二次元空間上で同一の位置に存在する過去の画像(動きベクトル=ゼロ)との差分絶対値(SAD)を算出するといった簡易的な動き検出を行っても構わない。

另外,在步骤 ST501中,为了检测当前图像相对于过去图像的运动,可以进行使用通常广泛知晓的全搜索或OAT(One at a time)等手法的运动检测,但也可以简单地进行计算当前图像与二维空间上存在于相同位置处的过去图像 (运动矢量=零 )的差分绝对值和(SAD)这样的简易的运动检测。 - 中国語 特許翻訳例文集

8. 前記視差量算出部は、前記設定部が座標を設定した前記基準光学系に対応する撮像条件評価領域から検出された特徴点と、前記調整対象光学系からの視点画像において前記特徴点に対応する対応点とを結ぶ視差ベクトルに基づいて、前記基準光学系と前記調整対象光学系の間の視差量を算出する請求項1〜7のいずれかに記載の撮像装置。

8.如权利要求 1至 7中的任一项所述的成像装置,其中所述视差量计算单元基于连接特征点和对应点的视差矢量来计算所述基准光学系统与所述调整目标光学系统之间的所述视差量,所述特征点是从坐标已由所述设定单元设定且对应于所述基准光学系统的所述成像条件评估区所检测的,且所述对应点在来自所述调整目标光学系统的视点图像中,与所述特征点相对应。 - 中国語 特許翻訳例文集

・マクロブロック内に配置されたピクセル値をそれぞれ備える参照可能フレーム及び双方向予測フレームのシーケンスを有するビデオ画像圧縮システムであって、双方向予測フレーム内の少なくとも1つのマクロブロックが表示順序における1つ以上の予測フレームからの動きベクトルに基づいて直接モード予測を用いて決定され、ここにおいて、かかる1つ以上の予測フレームのうちの少なくとも1つが表示順序において前記双方向予測フレームの前にあるシステム。

●具有可参考帧和双向预测帧序列的视频图像压缩系统,每个帧包括排列在宏块中的像素值,其中双向预测帧中的至少一个宏块是使用基于来自显示顺序中的一个或多个预测帧的运动向量的直接模式预测确定的,其中这样的一个或多个预测帧中的至少一个在显示顺序中是在双向预测帧前面。 - 中国語 特許翻訳例文集

Pフレーム型とBフレーム型との間の主な差異は、(1)Bフレームは双方向的に参照される(マクロブロック毎に2つの動きベクトルまで)こと、(2)Bフレームは使用後に廃棄されること(このことは、時相階層化を提供するための復号化の間にBフレームがスキップされ得ることも意味する)、及び(3)各Pフレームがそれぞれ後のPフレームのための参照として使用されるために復号化されなければならないので、Pフレームは次への「足がかり」として用いられること、である。

(2)在使用之后 B帧被丢弃 (这也意味着在解码过程中可以跳过它们以提供时间分层 ); 和 (3)P帧被用作“跳板”,一个到下一个,因为每个 P帧必须被解码以用作每个后续 P帧的参考。 - 中国語 特許翻訳例文集


演算部140は、現在のフレームの補正のための動きベクトルを算出するのに使用する情報を算出するために、以前のフレームの入力画像から選択された基準マクロブロック(すなわち、以前のフレームの基準マクロブロック)及び現在のフレームの入力画像から選択された探索領域(すなわち、現在のフレームの探索領域)を用いて統計的演算を行い、演算マトリックスを算出する。

运算器 140为了计算出核算修正当前帧所需动态矢量时使用的信息,利用在之前帧的输入影像中选择的基准宏块 (即,之前帧的基准宏块 )和在当前帧的输入影像中选择的搜索区域 (即,当前帧的搜索区域 )实施统计运算,从而计算出运算矩阵。 - 中国語 特許翻訳例文集

なお、可逆符号化部16には、量子化部15から量子化値が供給される他、イントラ予測部24から、イントラ予測が行われたことを表す情報が、ブロック又はマクロブロック単位等で、必要に応じて供給されるとともに、動き検出/動き補償部25から、動きベクトル、及び、インター予測のモードを表す情報等が、ブロック又はマクロブロック単位等で、必要に応じて供給される。

可逆编码单元 16被提供以来自量化单元 15的量化值,并且在必要时还被提供以指示出执行了内预测的信息,该内预测从内预测单元 24以块或宏块为单位被执行,并且在必要时被提供以来自运动检测 /补偿单元 25的、以块或宏块为单位的运动向量和指示出互预测的模式的信息。 - 中国語 特許翻訳例文集

可逆符号復号部272は、蓄積バッファ271からの符号化データに対して、その符号化データのフォーマットに基づき、可変長復号や、算術復号等の処理を施すことで、量子化値と、符号化データのヘッダに含められたイントラ予測モード、動きベクトル、動き補償予測モード、その他、各ピクチャのピクチャタイプ等の、画像の復号に必要な情報を復号する。

无损编码 /解码单元 272依据编码数据的格式对累积缓冲器 271所提供的编码数据执行诸如可变长度解码或算术解码的处理,以解码包括在编码数据的报头中的量化值和信息,所述信息包括帧内预测模式、运动矢量、运动补偿预测模式以及对图像进行解码所需的其他信息,例如每个画面的画面类型。 - 中国語 特許翻訳例文集

本明細書に記載されたさまざまな自動化態様を実施することにより、これらの技術は、(例えば、Hidden Markov Models(HMM)および関連する原型依存モデル、例えば、Bayesianモデル・スコアまたは近似を用いた構造探索によって生成されるBayesianネットワークのようなより一般的な確率論的グラフィック・モデル、例えば、サポート・ベクトル・マシン(SVM)のような線形クラシファイヤ、例えば、「ニューラル・ネットワーク」方法と称される方法のような非線形クラシファイヤ、ファジー理論方法、および、データ融合を実行するその他のアプローチ等のように)データから学習を行い、複数の記憶装置に情報を動的に格納することに関する推論および/または判定を行うための数多くの方法のうちの1つを適用しうる。

为了实现本文中所描述的各个自动化方面,这些技术可以采用多种方法中的一种方法,根据数据进行学习,然后关于动态地在多个存储单元之间存储信息得出推论和 /或做出判断 (例如,隐式马尔可夫模型 (HMM)和相关的原型依赖模型 (prototypical dependency model),诸如贝叶斯网络 (例如,利用贝叶斯模型评分或近似法通过结构搜索所产生的 )之类的更一般化的概率图形模型、线性分类器(例如,支持向量机 (SVM))、非线性分类器 (例如,称为“神经网络”方法、模糊逻辑方法的方法 ),以及其它用于执行数据融合的方法等 )。 - 中国語 特許翻訳例文集

・マクロブロック内に配置されたピクセル値をそれぞれ備える参照可能フレーム及び双方向予測フレームのシーケンスを有するビデオ画像圧縮システムであって、双方向予測フレーム内の少なくとも1つのマクロブロックが、1つ以上の予測フレームからの動きベクトルに基づいて直接モード予測を用いて決定され、ここにおいて、かかる1つ以上の予測フレームのうちの少なくとも1つが表示順序において前記双方向予測フレームの後にあるとともに少なくとも1つの中間の参照可能フレームだけ前記双方向予測フレームから隔てられているシステム。

●具有可参考帧和双向预测帧序列的视频图像压缩系统,每个帧包括排列在宏块中的像素值,其中双向预测帧中的至少一个宏块是使用基于来自一个或多个预测帧的运动向量的直接模式预测确定的,其中这样的一个或多个预测帧的至少一个在显示顺序中是在双向预测帧之后而且被至少一个居间的可参考帧与双向预测帧隔开。 - 中国語 特許翻訳例文集

本明細書に記載されたさまざまな自動化態様にしたがって、これらの技術は、(例えば、Hidden Markov Models(HMM)および関連する原型依存モデル、例えば、Bayesianモデル・スコアまたは近似を用いた構造探索によって生成されるBayesianネットワークのようなより一般的な確率論的グラフィック・モデル、例えば、サポート・ベクトル・マシン(SVM)のような線形クラシファイヤ、例えば、「ニューラル・ネットワーク」方法と称される方法のような非線形クラシファイヤ、ファジー理論方法、および、データ融合を実行するその他のアプローチ等のように)データから学習を行い、複数の記憶装置に情報を動的に格納することに関連する推論および/または判定を行うための数多くの方法のうちの1つを適用しうる。 モバイル・デバイス304は、帯域幅範囲に保持された情報を収集するオブテイナ310と、収集された情報が、帯域幅範囲のガード帯域幅に存在するかを判定するロケータ312とを含みうる。

根据实现本文描述的各种自动化的方面,这些技术可以使用与在多个存储单元上动态存储信息相关的、用于从数据进行学习并得出推论和 /或作出决定的大量方法中的一种方法 (例如,隐马尔科夫模型 (HMM)及相关的原型依赖模型、更一般的概率图模型 (例如 (例如由使用贝叶斯模型得分或近似值的结构搜索所建立的 )贝叶斯网络、线性分类器 (例如支持向量机 (SVM))、非线性分类器 (例如称为“神经网络”的方法 )、模糊逻辑方法以及执行数据融合的其它方法等 )。移动设备 304可以包括获取器 310和定位器 312,获取器 310收集保留在带宽范围中的信息,定位器 312确定所收集的信息是否位于该带宽范围的保护带宽上。 - 中国語 特許翻訳例文集

<前へ 1 2 3 4




   

中国語⇒日本語
日本語⇒中国語
   

   

中国語⇒日本語
日本語⇒中国語
   


  
中国語 特許翻訳例文集
北京语智云帆科技有限公司版权所有 © 2011-2024

©2024 GRAS Group, Inc.RSS