NappingとUltra Flash Profiling(UFP)の統合解析

プロダクトマップをパパっと素早く簡単に作りたい。
そんな要望にお応えするのがラピッドメソッドです。

プロダクトマップは商品開発やマーケティングで用いられるツールです。
自社の商品やサービスが市場でどのような地位や位置を確立しているかを視覚的に表現するツールで、「ポジショニングマップ」とも呼ばれます。

そんなプロダクトマップが簡単に作れるということで国内でも人気が出てきているラピッドメソッドです。
手法別では、ナッピングが最も人気で、次にウルトラ・フラッシュ・プロファイリング(Ultra Flash Profiling; UFP)という状況です。

2つの手法は別々に実施しても良いですが、同時に行うことで早さに加えて情報量も増やせます。

まずは手法のおさらいです。

●ナッピング:
サンプルの類似性に基づき、サンプルをマップ上(X,Y座標)に配置する。

●UFP:
サンプルの特徴(ワード)を回答する。ワードは「,」コンマや「;」セミコロンで区切る。

FIZZの場合、ナッピングもUFPも同じ画面で作成・回答しますので、FIZZを使って説明する場合はナッピングの中にUFPを含めることがあります。

しかし、2つの手法は別々の手法です。

ナッピングで得られる座標データだけでは、マップの軸の意味を解釈できません。
しかし、ナッピングにUFPを加えることで軸の意味やポジションの意味を解釈することができるようになります。

プロダクトマップの作成スピードと情報量をお求めの方にはお勧めの手法です。

以前の記事で解説しましたが、SensoMineRではpmfa関数でRのスクリプトを使えば「ナッピングとUFPの統合解析」が可能です。
【ブログ】FIZZユーザーも必見!Napping®データをSensoMineRで解析

しかし、スクリプトなんて面倒くさいという方も多いでしょう。

そんな方に朗報です。

Rコマンダーを使えばスクリプトを書かずにマウス操作だけで「ナッピングとUFPの統合解析」が可能です。

Rコマンダーのメニューから
メニュー> SensoMineR> Holistic approaches> procrustes multiple factor analysis
で実行できます。

解析結果は下記の通りです。

ナッピングとUFPの統合解析

ナッピングとUFPの統合解析

 

中央の「5 T Buisse Cristal」と左上の「8 V Font. Domaine」にはどのような違いがあるのでしょうか?
プロダクトマップとベクトル図を見てみると、2つのポジションと評価属性「Light」の矢印が同じ方向を向いており、両者のポジションの違いに「Light」が寄与していることがわかります。これはナッピングだけではわからない情報です。
統合解析によって、軸の意味付けやポジションの違いを我々の理解できる言葉で解釈できるようになります。

このような統合解析が簡単にできるSensoMineRは、FIZZをお使いの方にもお勧めです。

今回ご紹介したSensoMineRをマウス操作だけで実行する方法をまとめた「SensoMineRハンドブック-Rコマンダー編-」が2018年7月末に発売されます。
7月末までの予約限定サービスとして①1か月間のメールサポート②3冊以上の購入で1回無償社内研修をご利用いただけます。

詳しくはこちらから

この機会にぜひお買い求めください。

カテゴリー: 「官能評価なるもの」アーカイブ | NappingとUltra Flash Profiling(UFP)の統合解析 はコメントを受け付けていません

SensoMineRパッケージのJARデータ解析機能

今回はSensoMineR最新版(v1.23)で採用された「JARデータの解析機能」をご紹介します。

SensoMineRはRの総合官能評価パッケージです。
2005年に最初のバージョンが公開されてから10年以上が経過しております。
SensoMineRは時代の変化に対応し、様々な機能が追加されてきました。
現行のバージョンは、2017年12月にアップデートされたv1.23です。

以前、ブログでもJAR(Just-About-Right scale)についてはご紹介しましたが、海外でJARデータの活用気運が高まっております。

SensoMineRのJARデータに対応したコマンドは2つです。

  • JAR(ペナルティ分析)
  • CA_JAR(コレスポンデンス分析)

Rコマンダーからこれらのコマンドを操作できませんので、スクリプトを入力して実行します。
ここではサンプルデータを使った例をご紹介しましょう。

■JAR(ペナルティ分析)

ヘルプのサンプルを書き換えて、全てのサンプルを1つの図に表示するようにしました。

##############################
### JAR-Penality analysis
##############################
#パッケージを読み込みます。
library(SensoMineR)
#データセットを読み込みます。
data(JAR)
#JARコマンドを実行し、結果をres.jarに代入します。
res.jar <- JAR(JAR,col.p=13,col.j=1,col.pref=2)
#1行3列の描画デバイスを設定します。
par(mfrow=c(1,3))
#3つのサンプルのペナルティ分析グラフを表示します。
plot(res.jar,name.prod=”284″, model=1)
plot(res.jar,name.prod=”859″, model=1)
plot(res.jar,name.prod=”972″, model=1)
#ここまで——————————–

 

■CA_JAR(コレスポンデンス分析)

次にコレスポンデンス分析によるマッピングを行います。
CA_JARのヘルプにあるExamples(サンプルスクリプト)は下記の通りですが、このままでは実行できません。

data(JAR)
res <- CA_JAR(JAR)
plot.CA(res,invisible=”row”,cex=0.8)

2行目のCA_JARについては引数が足りないようです。ヘルプを参照して引数を修正します。

#2行目修正後コード
res <- CA_JAR(JAR,col.p=13, col.j=1, col.pref=2, jarlevel=”jar”)

また、3行目のplot.CAについては、対象のデータフレームresのままではエラーが表示されます。 そこでplot.CAのヘルプを参照してみると第1引数にはCAクラスのオブジェクトを指定する必要があります。 resの中身をattributesコマンドで確認してみましょう。

> attributes(res)
$names
[1] “Frequency” “res.CA”

resの中には2つの項目があることが分かりました。各項目のクラスをclassコマンドで確認します。

> class(res$Frequency)
[1] “matrix”
> class(res$res.CA)
[1] “CA” “list”

res$res.CA がCAクラスのオブジェクトであることがわかりましたので、第1引数を修正します。

#3行目修正後コード
plot.CA(res$res.CA,invisible=”row”,cex=0.8)

下記が修正したスクリプトです。

##############################
### JAR-Correspondence analysis
##############################
#パッケージを読み込みます。
library(SensoMineR)
#データセットを読み込みます。
data(JAR)
#コレスポンデンス分析を実行します。
res <- CA_JAR(JAR,col.p=13, col.j=1, col.pref=2, jarlevel=”jar”)
#グラフを表示
plot.CA(res$res.CA,invisible=”row”,cex=0.8)
#ここまで——————————–

ところで、plot.CAを実行しなくてもCA_JARを実行した時点でマップは作成されます。
なぜplot.CAが必要なのでしょうか?

これはCA_JARではグラフのカスタマイズが出来ないためです。
カスタマイズされたグラフを作成したい場合は、plot.CAを使って目的に合ったグラフを作成します。

さて、今回はSensoMineRの新機能JARデータの解析をご紹介しました。

最新の官能評価手法にも対応したSensoMineRを使いこなせると活用範囲が広がります。
ぜひ、SensoMineRを使ってみてください。

弊社ではSensoMineRを使いこなすために次の2つのサービスをお勧めしております。

1.テキスト「SensoMineRハンドブック -Rコマンダー編」の7月末発売
SensoMineRをマウス操作で活用できる「SensoMineRハンドブック -Rコマンダー編」の予約を受け付け中です。
Rコマンダー(GUI)を使ったSensoMineRの操作方法を網羅しております。パッケージ内のサンプルデータを使って解析ができるので自習テキストとしてもお勧めです。

2.ブログ新コンテンツ「官能評価でアール」を2018年7月開始
通常の投稿記事でもRや官能評価パッケージ等についての情報やエラー対応などの情報を提供しておりますが、これに加えて、Rに特化したコンテンツ「官能評価でアール」を7月より開始いたします。不定期更新となりますが、パッケージの詳細な情報や解析過程等を紹介していきます。

読者の対象レベルは、

「マウス操作(Rコマンダー使用)なら何とかなる」

という方を想定しております。なるべくスクリプト(プログラム)は使わずに
説明いたします。

なお、新コンテンツ「官能評価でアール」はブログへの登録が必要となります
ので、ご興味のある方はこの機会にご登録をお願いいたします。

カテゴリー: 「官能評価なるもの」アーカイブ | SensoMineRパッケージのJARデータ解析機能 はコメントを受け付けていません

官能評価業務おけるRPA(Robotic Process Automation)の準備

ビッグデータ関連の業界ではRPA(Robotic Process Automation)という言葉が流行っております。
いわゆるパソコン操作の自動化です。

今まででも、Excelのマクロ機能やuwscなどのマクロ(自動化)ソフトを使ってパソコン操作を自動化出来ていたのですが、RPAではフローチャートなどを用いてプログラムを書かずに自動化できる点が既存のマクロソフトに比べて優れている点でしょう。

多くのRPAソフトで、実用可能なレベルの自動化を作成しようとすると、業務の流れを正しく描き、またイレギュラーな動作を想定したエラー処理を適切に行う必要があります。
これはプログラミングスキル(論理的思考、またはアルゴリズム的思考)といってよいでしょう。
このようなスキルが必要となるのであれば、現時点でRPAのメリットというのは費用対効果が主であり、人間が従来出来ないことをRPAで出来るようになるという訳ではありません。

一方、RPAの先にはAIによる業務の自動化も見据えています。状況に応じた判断を含むパソコン作業も自動化される時代が来るのでしょう。

そこで、官能評価業務もRPAや業務の自動化への準備を始めてみませんか

弊社の研修では次の話をしております。

「近い将来、解析業務は自動化されるでしょう。官能評価の従事者に必要とされる能力は解析業務ではなくなります。解析結果の解釈や、自動化が難しいパネルマネジメントが重要なスキルとなるでしょう。」

現状では、どのような官能評価業務ならば自動化できそうでしょうか。
例えば下記の業務です。

・定型解析業務
・定型レポート作成
・パネル招集
・パネル選抜

この他に、設計業務でも定型的なものならば可能でしょう。

逆に、アドホックな評価(1度きりのカスタム評価)に関する業務は自動化が難しいです。
また、評価実施(試食試飲)に関わるプロセスは「データを取得に失敗するリスク」を考えると自動化のメリットが割に合わなくなります。

つまるところ、業務の自動化や効率化は、その業務を行う上でイレギュラーがどの程度発生するかに基づき、「自動化によるメリット」と「失敗によるリスク」の兼ね合いによって適否が決まります

官能評価担当者レベルで対応可能な自動化は「解析」と「レポート」が適していると思います。(パネル招集等も社内システムによっては可能でしょう)

実際、評価回数の多い企業(毎日のように評価が行われている企業)では解析テンプレートを使っています。
例えば下記のようなものです。

・関数を設定したExcelシートを作成して、取得したデータを張り付けるだけで、レポートシート(A4サイズで2枚)が完成するような仕組み
・Rのテンプレートスクリプトを用意しておき、数か所書き換えるだけで解析とHTMLレポートが作成されるような仕組み

弊社で受託した案件では下記のような事例があります。(受託例はこちら

・FIZZデータをExcelで処理
・FIZZデータとRで処理(出力はhtml形式)
・ExcelとR(解析エンジンとしてRを使用。出力はExcel)

外部に発注するほどでなくても、Excelのテンプレートを作成しておくことで業務はだいぶ楽になります。

また、同時にテンプレート作成をしていく中で「本当に必要な情報は何か」が明確になってきます。現在の統計ソフトは様々な指標を出力してくれますが、本当に必要な情報はそれほど多くありません。

2018年時点の自動化への第一歩は「テンプレートの作成」だと考えております。

テンプレートの作成を通じて、業務を見直し
テンプレートの作成によって、業務を自動化し、
テンプレートの作成によって、RPAに備える

「テンプレート」があれば業務の引継ぎも楽々ですよ

カテゴリー: 「官能評価なるもの」アーカイブ | 官能評価業務おけるRPA(Robotic Process Automation)の準備 はコメントを受け付けていません

jmp14が出ましたので一言

jmp14が発売されました。
官能評価担当者の中でもjmpユーザーは多くいらっしゃいます。
以前は弊社のクライアント向けにjmpの提案をしておりましたが、近年はRやXLSTATを主に提案するようになりました。

やはり一番のポイントは「価格」です。
多くの官能評価部門の予算は少なく、人数分のソフトウェアライセンスを確保するとなるとそれなりの金額になります。
その点、フリーウェアのRは人数に関係なく無料です。XLSTATは機能を絞って製品を選べば、jmpに比べて金額を抑えられます。

次に「手法」です。
官能評価で用いる分析手法は、マーケティングなどの分野に比べて限定的です。
jmp14では官能評価で用いられるMFA(Multiple Factor Analysis:多重因子分析)やBIBD(Balanced incomplete block design:不完備釣合い型ブロック計画)が搭載されましたが、今更感があります。
Rは様々なパッケージがあるので、当然これらの分析は可能です。また、XLSTATのセンサリー版はこれら手法は以前から搭載されています。XLSTATは手法の採用が早く、現バージョンでは通常の官能評価運営に必要なツールが一通り揃っていると言えます。

但し、XLSTATのR連携機能はPC環境によってはうまく作動しないことがあり、今後の改善が望まれます。

R連携については、基本的にRはR単体で使うのが良いと考えています。
Rの出力をファイル等に出力し、他のアプリケーションで編集・加工するというのがトラブルが少ないように思います。
例えば、Excelを分析ハブとしてExcel上でXLSTAT(アドインなので当然ですが)で解析と編集、Rの解析結果をExcelで編集という使い方(R仲介法)がトラブルなく使える使い方として推奨しております。

最後に「ライセンスの問題」です。
jmpのライセンスは複雑で、シングルライセンスと年間ライセンスによっても異なるようです。
ビッグデータのように第3者データを扱う場合は注意が必要です。jmpオンライン注文の画面には下記のような文言があります。

「ご注文または価格についてご質問がある場合、あるいは業務上で第三者のデータ処理が発生する場合は、当社までお問い合わせください。」(2018年5月7日確認)

様々なデータソース、特に第3者のデータを扱う場合はjmpではライセンス上の問題が出てくるので注意が必要です。

以上の3つの理由(価格、手法、ライセンス)から、近年はRやXLSTATを中心に提案するようになってきました。

しかし、それでも私はjmpを使い続けています。

理由は「使いやすさ」です。

jmpに初めて触れたのはjmp4か5の頃です。しかし、それまで使っていたSPSSなどの統計ソフトなどの操作感とあまりにも違いすぎて使わずに放置していました。何せ、主成分分析を行おうにもメニューに主成分分析がなかったのですから・・・。業務上の必要に迫られて、jmpの使い方を勉強しました。当時では下記の書籍を参考に勉強しました。

・JMP活用 統計学とっておき勉強法―革新的統計ソフトと手計算で学ぶ統計入門 (ブルーバックス CD-ROM)
・JMPを用いた統計およびデータ分析(JMP START STATISTICS)

多少jmpを使えるようになってから、jmpの操作感は直観的で分析者の想像力を刺激するような構成になっていることに気が付きました。
例えばjmpではデータシートやグラフがリンクしています。探索的な解析をしているときに、グラフ上の気になるポイントを選択するとデータシートの当該データ行もアクティブになり、そこからサブセットを作成し、解析する。こんな分析がスムーズにできてしまうというのがjmpの魅力です。

jmpに一度慣れてしまったら他のソフトウェアには戻れなくなりました。
まあ、実際は他のソフトも使ってますが、未だにjmpがメインツールです。

各ソフトについて私なりのメリットデメリットをご紹介しましたが、官能評価データの解析ソフトウェアの選択指針を下記に示します。
・ソフトウェアの学習コストを抑えつつ、自社データの探索的な分析も行いたいのであれば「jmp」をお勧めします。
・予算を抑えつつ、官能評価データを主に扱うのであれば「XLSTAT-Sensory」がお勧めです。
・ソフトウェアの学習努力ができて、最新の分析手法も行いたいのであれば「R」をお勧めします。

なお、解析界隈ではRに並んでPythonが解析言語として人気です。しかし、官能評価データの解析に限って言えば、現時点ではRの方をお勧めします。理由はRの方が官能評価パッケージが揃っているからです。

ソフトウェアを一度決めてしまうと変更には大変な労力が必要です。過去の資産や操作技術の再習得などの価格以外のコストも考えると導入時期にしっかりとメリットデメリットを理解しておくことが大切です。

弊社ではユーザーのニーズに合ったソフトウェアをご提案しております。
官能評価・マーケティング・ビッグデータ・人工知能などの用途別に、また解析スキルに合わせたソフトウェアをご提案いたします。

お気軽にお問い合わせください。

カテゴリー: 「官能評価なるもの」アーカイブ | jmp14が出ましたので一言 はコメントを受け付けていません

識別法習得のためのおススメ:書籍とセミナー

MagicSenseの識別法モジュールを3/1に発売いたしました。
お陰様で好調です。
識別法はもう使われていないのではないかと危惧しておりましたが、まだニーズがあるようでホッとしました。

識別法については、書籍やセミナーのご質問をいただくことがございます。
そこで今回はお勧めの書籍とセミナーをご紹介します。

まず識別法については下記の書籍をお勧めしております(昨年発売です)。

Discrimination Testing in Sensory Science
1st Edition
A Practical Handbook

3/12~4/2までディスカウント中です。プロモーションコードはこちらで確認(執筆時点で「SPRING18」)です。

また、ebookはDRM-FREEなので複数のパソコンに入れておけるのが便利です。
お勧めはバンドル版です。印刷された本とPDFが一緒になったセットです。

内容は識別法の歴史から現在のトレンドまで網羅しております。
また、Rの識別法パッケージであるsensRの解説があります。
sensRのヘルプだけではわかりにくい点も説明されているのでsensRを使いたい方にはお勧めの書籍です。

識別法のトレンドの1つとして、サーストンモデルによるd’(d-prime、差)の使用があげられます。
d-primeはsensRの結果出力でも標準的に出力されます。
実は、日本の官能評価者にはサーストン法が普及しているためサーストンモデル自体は今更感はありますが、近年見直されておりsensRにも採用されております。
アプローチや計算方法もアップデートされているのでサーストン法をご存知の方にもお勧めです。

但し、実務的な利用に重点を置いており、理論的背景はリファレンスに挙げられた論文等で補完するのが良いでしょう。

セミナーについてですが、識別法を扱っているセミナー自体があまり見つかりませんでした。
キーワード(識別法 官能評価)の検索で、3月実施のセミナーが見つかりますが識別法の内容が古いです。佐藤信著の「統計的官能検査法」(1985)の時代から変わっていない内容に逆に驚きです。
※「統計的官能検査法」は内容は古いですが、官能評価における統計的な考え方について詳細に説明されている名著です。ぜひ1冊お手元にどうぞ。

2018/5/24に私(平沼)が他社主催セミナーの講師として識別法とsensRを取り上げます。こちらは他社主催なので興味のある方はご連絡いただければ主催者をご紹介いたします。
※お問合せフォームからご連絡ください

識別法については、官能評価の実施方法自体はそのままに、解析手法が進歩しているという状況です。
「いまさら識別法」などと思わず「今こそ識別法」ぐらいの気持ちで見直してみてください。

カテゴリー: 「官能評価なるもの」アーカイブ | 識別法習得のためのおススメ:書籍とセミナー はコメントを受け付けていません

FIZZ Tips: FIBasicを使ったカスタマイズの日本語表示

FIZZユーザーの中には基本的な使用法では飽き足らず、様々なカスタマイズをご希望されるユーザー様もいらっしゃます。

FIZZの究極カスタマイズといえば「FIBasic」です。
FIZZオリジナルのプログラム言語ですが、VisualBasicやVBAに似た言語です。

FIBasicのマニュアルが添付されているので、カスタマイズの手始めにはマニュアルに記載されたソースコードを使ってみるのが良いと思います。
様々なことができるFIBasicですが、デフォルトでは日本語表示ができません

そこでsetFont関数を使います。

SetFont(DlgItem,Font$,Size,Style,Color)
DlgItem:フォントを変更するオブジェクト名
Font$  :フォント名(日本語対応フォント、または”System”を指定
Size   :フォントサイズ
Style :スタイル ex) normal(0), Bold(1), italic(2),underline(4), strike(8)
Color   :カラーコード ex)black(0),red(255)

以上を必要な個所に設定すると下記のように日本語表示となります。

様々な関数が用意されているので、アイデア次第で様々な機能が使えそうです。
一方でFIBasicは独自の言語体系を持ち、他の言語に比べてユーザー数が少ないため、あまり浸透していないのが実情です。

弊社では様々なカスタマイズをご提案しております。
カスタマイズでは、多くの企業に普及しているExcelを使ったアプリケーションを優先的にご提案しております。
ExcelVBAを中心として統計解析フリーウェアRを組み合わせて解析の自動化を実現しております。

ご興味のある方はお問い合わせください。

受託開発サービスのご紹介(企業サイトへのリンク)

カテゴリー: FIZZ | FIZZ Tips: FIBasicを使ったカスタマイズの日本語表示 はコメントを受け付けていません

3点試験法のPd(Proportion of distinguishers)とは何か

今年もバレンタイン商戦が始まりました。チョコレートのラインナップが豊富なのでうれしい時期です。

さて、年明けに識別法についてJISとISO/ASTMを改めて見直したら気になったことがありました。
※識別法モジュールの発売を3月に予定しております。現在、鋭意開発中です。

JISにはPd(Proportion of distinguishers)が出てきていないんです。
例えばISO4140(3点試験法)ではα、β、そしてPdによる数表(必要人数表)が出ているのですが、JISの方には数表どころかPdというワードも出ていません。

FIZZユーザーなど海外のソフトウェアを使っている方ならば、識別法の出力にPdという指標があることにお気づきになったことがあるでしょう。

Pdとは何でしょうか?
Pdとは、提示したサンプルを完全(確率1)に識別できる人の割合です。完全識別者比率といえます。

実際に取得されたデータから計算される正解率Pc(Proportion of correct responses)とPdの関係はどのようになっているのでしょうか。
下記のような式で表されます。

Pc=1*Pd+(1/3)*(1-Pd)・・・・・式(1)

または

Pd=1.5Pc-0.5・・・・・式(2)

式(1)の考え方として、参加者nの中にある割合で評価サンプルを100%識別できる人たち(完全識別者)がいると仮定します。その完全識別者の割合がPd(%)です。
そして参加者のうち、完全識別者以外の人はランダムに選択すると仮定し、その正解率は3点試験法であれば1/3の正答確率と考えます。

実際の参加者による正解人数xから正解率Pc(=x/n)は、両者によって構成されますので式(1)を言葉で説明すると式(3)のようになります。

Pc=1*Pd+(1/3)*(1-Pd)・・・・・式(1)

実際の正解率 =正解確率(Pr=1)×完全識別者比率+正解確率(Pr=1/3)×完全識別者以外の比率・・・・・式(3)

Pdの考え方は「差異試験(Difference test)」よりも「類似性試験(Similarity test)」で重要な意味を持ちます。
Pdへの興味が薄い理由は、適切な設計による類似性試験を行っている企業が少ないためと考えられます。
加えてJISや官能評価書籍の識別法に関する説明が古かったり、言葉足らずだったりします。
特に「JIS Z 9080:2004 」は2005,2009,2014年に「確認」を受けていますがPdの追記はされておりません。

※確認とは
『調査会の議決により、主務大臣が当該JISを年月を経過してもなお適正であると認めたとき、内容を変更せずに、確認するものです。「確認年月日」とは、その「確認」が官報で公示された日のことです。規格番号の西暦年(コロン(:)の後ろの年)は、直近の制定又は改正された年のままで変更はありません。*確認された年にはなりません。』
引用サイト(日本規格協会サイト)

JISの確認から4年が経ちますので、次回は「確認」ではなくJISの「改正」が待たれます。

3点試験法を例に説明しましたが、2点試験法やテトラッドなど他の識別試験法でも同様です。
また、近年のトレンドは識別法を信号検出理論(signal detection theory;SDT)を用いて解析することが行われております。
興味のある方は、フリーウェアRの識別法パッケージsensRがお勧めです。

識別法もまだまだ進化しているようです。

カテゴリー: 「官能評価なるもの」アーカイブ | 3点試験法のPd(Proportion of distinguishers)とは何か はコメントを受け付けていません

2017年を振り返る:官能評価関連の動向

ハッピーホリディ
今年も残すところあと1週間となりました。

今年の官能評価関連の状況を振り返りたいと思います。

まず、第一に今年大きなニュースだったのが「トマト知財裁判」です。

トマトジュース大手の2社による知財裁判(特許)で、特許の無効を求めた裁判でした。
官能評価担当者として注意すべき点は、官能評価の「定量性・客観性の問題」が取り上げられて争点ともなっていることです。
食品の特許申請では官能評価データを使用することが多いですが、申請に用いる官能評価データの「定量性・客観性」が更に求められるようになるでしょう。

特に飲料食品メーカーでは知財部門と官能評価部門が連携をとることはほとんどないため、官能評価担当者自身がこれらの情報にアンテナを張っておきましょう。

判例解説サイト1

判例解説サイト2

判例解説サイト3

判例解説サイト4

次に、時系列手法の活況が引き続き続いていることです。

数年前からのTDSを皮切りに、TCATA、TDLそしてリバイバルでTimeIntensityの活用が活発化しております。
ソフトウェアの充実に加えて、国内企業による研究も次々と発表されているのが追い風となっているのでしょう。
また、TDSやTCATAを実際に使ってみることでTimeIntensityのメリットも再評価されてTimeIntensityも活用されています。

お蔭さまでダイナミック官能評価ソフトウェアMagicSenseもご活用頂いております。
今後ともよろしくお願いいたします。

 

最後は、私の実感としてですが、国内企業の官能評価関連の予算が増加しているように感じております。

正直なところ、従来の官能評価の予算は少なく、広告宣伝費はもちろんのことマーケティングリサーチの予算に比べても大幅に少ないのが担当者の悩みの種でした。
これが徐々に予算枠が増えてきているように感じております。
背景として、国内企業の多くは新しいことに予算を付けるよりも「競合他社がやっているが自社ではやっていない」という案件には予算が付きやすいように思います。
時系列手法の活況の影響でもありますが、競合他社が新しい手法を導入したり、システムを購入したりすると予算が付くというお話を伺います。

担当者としては予算申請時期には競合他社の動向にも目を向けてみると予算が通りやすくなるかもしれませんね。

 

2017年のISO更新情報です。

ISO6658は官能評価の大元の規格です。全体的な章立てが再構成されてページが増えています。テトラッド手法が記載されました。
ISO6658とISO10399はページ数が増えていますが、ISO10399は減少しています。

●ISO 6658:2017 官能試験-方法論-一般的手引
Sensory analysis — Methodology — General guidance

●ISO 8588:2017 官能試験-方法論-A-非A試験
Sensory analysis — Methodology — “A” – “not A” test

●ISO 10399:2017 官能試験-方法-1対2点試験法
Sensory analysis — Methodology — Duo-trio test

あと1週間で今年も終わりです。よいお年をお迎えください。

カテゴリー: 「官能評価なるもの」アーカイブ | 2017年を振り返る:官能評価関連の動向 はコメントを受け付けていません

TDS/TCATAのブートストラップ法による信頼区間の推定

 

官能評価学会2017年度大会でデモンストレーションする予定でしたが、参加できなかったためブログにてご紹介します。

TDSカーブを描画するのはソフトウェアを使えば簡単です。

さて、サンプル間や属性間の有意差検定にはドミナント%の比率差検定(ペアワイズ検定)を用いるのが通常の方法です。

一方、シミュレーションを用いて信頼区間の推定する方法がブートストラップ法です。
ブートストラップ法とは、1つの標本から復元抽出を繰り返して複数の標本を大量に生成し、それらの標本から推定値を計算する方法です。

TDS法の課題として、高い精度を求める場合にはデータ数が多く必要となります。
この課題に対して一つの解決アプローチが「ブートストラップ法」です。

TDSカーブの例

上記のようなTDSカーブが得られた場合に、属性1と2間の有意差を判断する場合にブートストラップ法を用いた場合に次のようなグラフが得られます。

属性1:Dried Fruit Flavour
属性2:Nutty Flavour
※信頼区間は95%として計算

ブートストラップ例

グラフの重複していない部分が有意差のある範囲といえます。

ブートストラップ法はTCATAでも同様に行えます。
TDSとTCATAでブートストラップ法を行う場合、RのTDS・TCATA解析パッケージの「tempR」を使うのがお勧めです。

お試しください。

 

カテゴリー: 「官能評価なるもの」アーカイブ | TDS/TCATAのブートストラップ法による信頼区間の推定 はコメントを受け付けていません

出展情報-日本官能評価学会 2017年度大会(11/26Sun)-

【追記】弊社の都合により下記大会に不参加となりました。ご迷惑をお掛けしますが、何卒宜しくお願い致します。

2017/11/26(日)に開催される日本官能評価学会 2017年度大会に企業展示いたします。

【展示予定】—————————————————————————————
・【新商品】時系列嗜好解析ツール「Dynamic Preference Analyzer」のデモ
・TimeIntensityのゲームパッド回答デモ
・DeepLearningトライアルシステムのデモ
・FIZZのデモ
・発刊テキストのサンプル展示
———————————————————————————————————-

今回の目玉は、時系列嗜好データの解析ツール「Dynamic Preference Analyzer」です。
いわゆるTDL(Temporal Drivers of Liking)の解析が可能です。TDLとは、TDS(Temporal Dominance of Sensations)と時系列嗜好度データの統合解析手法です。

本ツールではTDL解析に加えて下記のような特徴があります。

  • TCATAのデータとの統合解析
  • 通常の嗜好データ(ヘドニック尺度)との解析
  • 「FIZZ」「MagicSense」で取得したデータの解析

TDL解析にご興味のある方、TDL解析で行き詰まりを感じている方は、ぜひブースにお立ち寄りください。

カテゴリー: 出展情報 | 出展情報-日本官能評価学会 2017年度大会(11/26Sun)- はコメントを受け付けていません