2018年を振り返る:官能評価関連の動向

今年も残すところ1週間を切りました。

今年の官能評価関連の状況を振り返りたいと思います。

1.香川県独自のオリーブオイル官能評価パネル、IOCから公式認定
2.TDSにマーケティングリサーチ業界も参入
3.嗜好調査の浸透と拡張

1.香川県独自のオリーブオイル官能評価パネル、IOCから公式認定

1つ目ですが、今年後半に香川県が小豆オリーブ研究所に設置している「香川県オリーブオイル官能評価パネル」が国際団体の公式パネルとして認定されました。

下記、新聞の引用です。

「香川県が小豆オリーブ研究所に設置している「香川県オリーブオイル官能評価パネル」が、11月19日から23日、スペインマドリードで開催されたインターナショナル・オリーブ・カウンシル(IOC)の年次総会で、公式パネルとして認定された。これは日本国内では初の快挙であり、アジアでもトルコについで2番目となる。」日本食糧新聞2018/12/7より引用

コーヒー業界では業界団体ごとに資格制度を設けて、日本国内の企業でも資格保有を推進しています。その為、コーヒー業界では「認められた評価者」が認知され、活用されています。
しかし、他の分野ではあまり認知されていませんでした。
今回、オリーブオイルの分野で認定されたことで公式パネルが評価したデータやチャートがオリーブオイル商品に活用されていくことが見込まれます。
ワインや日本酒などでは小売店の売り場に商品マップや風味チャートがPOPと共に活用されています。オリーブオイルの売り場でも今後目にすることが増えてくるでしょう。

現在でも味覚センサーによる商品マップを売り場に展示されていますが、今回の「国際団体が認定」したことや「国内初」などは目を引くキーワードになるでしょう。

一方で、ワインや日本酒でも同様の課題を持っていますが、売り場の商品マップは展示するだけにとどまっており、販促として購買決定にうまく活用されていません。

今後は試食販売との組み合わせを通じてコンサルティング販売につなげていくことがポイントになってきます。

2.TDSにマーケティングリサーチ業界も参入

TDSの影響はマーケティングリサーチ業界にも影響を及ぼしているようです。
近年のTDSをはじめとした時系列手法は商品開発に活用できるという認識が広まってきており、各メーカーの担当者からマーケティングリサーチ会社に問い合わせが増えてきているようです。一方で、国内のマーケティングリサーチ企業の多くでは官能評価に特化したスタッフがほとんどいないため対応できていない状況でした。それでも3点試験法や評点法、疑似QDAなどは何とかこなせていたのですが、さすがにTDSなどの専門的な手法となるとすぐには対応するが難しいようです。

弊社で販売している官能評価テキストの多くはメーカーが購入されていますが、最近はリサーチ企業からの引き合いも増えてきております。

海外のマーケティングリサーチ企業の多くは専門的な官能評価手法にも対応しており、パングボーンなどの国際会議のスポンサーにも名を連ねています。残念ながら国内のマーケティングリサーチ企業がスポンサーになった例は多くありません。

TDSをきっかけに国内リサーチ企業も官能評価に多少の興味を持ち始めていることは、国内の官能評価レベルを高めるうえで好ましい傾向だと思います。

依頼側の注意点としては、サービスや商品が急拡大する時期には玉石混交という状態になります。知識がない状態で依頼するのは難しいですね。専門家や経験者のサポートしてもらいながら進めていくのが良いでしょう。

3.嗜好調査の浸透と拡張

嗜好調査自体は多くの企業で実施されてきましたが、近年その活用と手法の多様さが目に付くようになりました。

高度な手法である「プリファレンスマップ」を多くの方が使うようになってきました。
また、前述のTDSとの組合せで使われる「TDL:Temporal Driver of Liking」も利用者が増えてきています。
そして「Jarスケール:Just About Right scale」の利用者も徐々に増えてきています。Jarスケールは1試料から評価できる点が好まれているようです。予算の少ない企業でも実施しやすいというメリットがあります。

スタンダードな「ヘドニック尺度」が浸透し、その次の手法を探している状態なのでしょう。

官能評価の解析手法も専門家から一般消費者を前提とした解析に移行してきています。
2016年末に今後の手法動向について述べていますが、この傾向は変わらず続きそうです。

2018年のISO更新情報

ISO13301は閾値検査の規格の改訂版です。データ要件と計算手順に焦点が当てられています。ページが減っています(34p→28p)。
ISO18794は新しい規格です。基本的な用語、コーヒー評価における基本的用語、コーヒー特有の用語、実務者の用語が記載されています。

●ISO 13301:2018-04-24 ( 2002年の改訂 34p→28p )
官能試験-方法-三肢強制選択法(3-AFC)手順による香り,風味及び味覚検知の閾値
Sensory analysis — Methodology — General guidance for measuring odour, flavour and taste detection thresholds by a three-alternative forced-choice (3-AFC) procedure

●ISO 18794:2018-01-03( 新規格 )
コーヒー-官能分析-用語
Coffee — Sensory analysis — Vocabulary

コーヒーに特化した用語規格を発行したことは、今後の規格の方向性としてポイントになります。ワインなども評価容器の規格がありますが、今後は商品カテゴリに特化した規格が増えてくることが想定されます。一方、ASTM(アメリカの標準化規格)の方が手法の規格も、商品カテゴリ別の規格も更新の頻度が高いため、今後のISOの方針には注意が必要です。実務者としてはASTMのチェックも忘れないようにしましょう。

年末もバタバタしておりますが、個人的には「麦ふあ~」のパッケージの変更
が一番のびっくりニュースです。
内容量もさることながら、一枚一枚の量・厚さも変わってしまいました。
これにより食感が変わってしまったのが(個人的には)残念です。
昨今の事情を考えると量が減るのは仕方ないとして、1枚の仕様が変わってしまったのはファンとしては衝撃でした。
パッケージ変更に気づいてから、旧パッケージを箱買いしてしまいました・・・

今年も残すところ1週間を切ってしまいました。
良いお年をお迎えください。

カテゴリー: 「官能評価なるもの」アーカイブ | 2018年を振り返る:官能評価関連の動向 はコメントを受け付けていません

JARスケールのASTMマニュアル本「MNL63」の紹介

◆出展情報

まずは出展情報です。
2018年11月18日開催の「日本官能評価学会 2018年大会」に企業展示いたします。

今年はAI(人工知能)がメインテーマだそうです。

2016年のDrinkJapanで弊社が官能評価のディープラーニングをデモ展示したときは、他の分野に比べてあまりの無反応に驚いたのですが、ついに人工知能がメインテーマとなりました。嬉しいですね。

弊社では、機器データ等の処理にはディープラーニングを、官能評価の設計・解析等にはエキスパートシステム(古いなぁ・・)による人工知能システムを提案しております。

学生時代PROLOGなんてものもやりました(PROLOGは、数十年の人工知能ブームの中核となった言語です。)。

学会にご参加の方、お時間がありましたらお立ち寄りください。

◆JARスケールのASTMマニュアル本

さて、今回はJARスケールの規格のお話です。
近年人気となっているJARスケール(Just-About-Right scale)ですが、2009年にASTMからマニュアル本が出版されています。

(ISOはASTMに後れを取ることが多いようです。標準化という意味では落ち着くのを待つのもよいのですが、ISO規格で新しい手法を取り上げつつも詳細は文献を参照として、ASTMの該当規格をあげています)

ASTMについては国会図書館リサーチ・ナビを参照

JARスケールに特化した本というのは出版されていないので貴重な本だと思います。
タイトルと価格は下記の通りです。

MNL63「Just About Right (JAR) Scales: Design, Usage, Benefits, and Risks」120ページ $55(約6300円)

論文を探しても良いのですが、MNL63にはいろいろなアイデアが詰まっていて解析方針のアイデア出しにも有効です。

内容は最初の13ページがJARスケールの解説です。
以外と短いです。

しかし、歴史やメリット・デメリットなど基本的な知識が記載されているので13ページを読むだけでJARスケールの基礎知識は習得できます。

残りの100ページは、appendixです。驚きなのがappendixがAからZまであります。26項目ですね。
果たして「付録(appendix)かな?」というのが感想です。

JARデータの解析アプローチについて推奨・非推奨問わずに網羅している感じです。

各項目の最後にRecommendations(推奨事項)という項目があります。ここは必ず読みましょう。

なぜなら、使用状況をかなり限定している手法も掲載されています。つまり、通常では「非推奨」の解析アプローチということです。

解析アプローチで私が気になったものをピックアップしました。
ペナルティ分析を基本とした4つの手法です。

Appendix L:ペナルティ分析:
JARデータのスタンダードな解析手法。

Appendix O:ブートストラップ法によるペナルティ分析:
ペナルティ分析の応用。他分野でも活用されているブートストラップ法による推定。今後に期待の手法です。

Appendix P:機会分析:
回答者を4つのグループに分けてリスク(Risk)と機会(Opportunity)の比率を解析します。ペナルティ分析の次に行います。

Appendix Q:PRIMO分析:
PRoduct IMprovement Opportunity analysisの略。ベイズ統計を用いて最適化を図る手法です。ペナルティ分析の次に行います。

この他にもJARデータの検定、回帰分析、プロダクトマップ、プリファレンスマップ、理想点解析などの事例が掲載されています。

ご興味の方はお手元にいかがでしょうか?

◆テキストの取次店販売のお知らせ

最後に弊社テキスト本ですが、弊社から直接購入できない(したくない?)場合はどこかの取次店を通していただくことも可能です。その場合は1か月間のサポートサービスが受けられなくなりますが、弊社に購入時期と取次店名をご連絡頂ければサポートいたします。

詳しくはお問い合わせください。

 

今回はJARスケールのASTM規格のお話でした。

 

カテゴリー: 「官能評価なるもの」アーカイブ | JARスケールのASTMマニュアル本「MNL63」の紹介 はコメントを受け付けていません

SPSSのデータ操作に必要な3つのシンタックスー集計編

前回に続いて、SPSSのシンタックス紹介です。

今回はアンケートデータの基本的な集計(GTとクロス集計)について設問タイプ別にSPSSシンタックスをご紹介します。
※GT:Grand total/単純集計の略

アンケートの基本設問タイプは大きく分けて3つです。

SA:Single answer/単一回答
MA:Multiple answer/複数回答/多重回答
FA:Free answer/自由回答

基本集計ではSAとMAの設問が対象となります。
アンケートシステムの仕様によりMAデータの形式は異なりますが、SPSS上の解析は選択肢別に0/1データになっていることを前提として説明します。
もし1つのセルに複数の選択肢が入力されている場合はExcelなどで変換しておくと便利です。

●データパターン1:1つのセルに選択した全ての内容が入力してある(パターン2に変換します)

●データパターン2:選択肢毎に選択の有無が1/0(1:選択、0:非選択)で入力してある(そのまま下記説明通り使用できます)

●シンタックスのルール(再掲)

  • 大文字と小文字を区別しません
  • コマンドは3文字または4文字の略語を使用できます(FREQUENCIES->freq)。
  • ピリオド(.)で終わります。
  • 変数名は省略せずに入力(ピリオドは使わないことを推奨)
  • コメントは「/*」「*/」で囲むか「*」「.」で囲む
  • 全角スペースは使用しないこと

◆SA(Single Answer)設問の場合

●4.GT/度数分布「FREQUENCIES VARIABLES」

シンタックス式:
FREQUENCIES VARIABLES=変数名
/ORDER=ANALYSIS.

例:設問Q04_SAの単純集計(選択肢別度数分布)を表示します。

FREQUENCIES VARIABLES=Q04_SA
/ORDER=ANALYSIS.

●5.クロス集計「CROSSTABS」

シンタックス式:
CROSSTABS
/TABLES=表側変数 BY 表頭変数
/FORMAT=AVALUE TABLES
/CELLS=COUNT COLUMN ROW TOTAL
/COUNT ROUND CELL.

例:表頭にQ01、表側にQ12のクロス集計表を出力します。

CROSSTABS
/TABLES=Q01 BY Q12
/FORMAT=AVALUE TABLES
/CELLS=COUNT COLUMN ROW TOTAL
/COUNT ROUND CELL.

◆MA(Multipule Answer)設問(複数回答/多重回答)の場合

●6.GT/度数分布「MULT RESPONSE GROUPS」

シンタックス式:
MULT RESPONSE GROUPS=新変数名 ‘新ラベル’ (変数1 変数2 変数3 (集計対象の値))
/FREQUENCIES=新変数名.

例:q02_1からq02_6までの設問をまとめてQ02_MA(購入理由)として単純集計をします。

MULT RESPONSE GROUPS=$Q2_MA '購入理由' (q02_1 q02_2 q02_3
               q02_4 q02_5 q02_6 (1))
/FREQUENCIES=$Q2.

●7.クロス集計「MULT RESPONSE GROUPS」

シンタックス式:
MULT RESPONSE GROUPS=新変数名 ‘新ラベル’ (変数1 変数2 変数3 (集計対象の値))
/FREQUENCIES=新変数名.
/VARIABLES=変数名(下限値 上限値)
/TABLES=表側変数 BY 表頭変数
/CELLS=COUNT COLUMN ROW TOTAL
/BASE=CASES.

例:q02_1からq02_6までの設問をまとめたQ02_MA(購入理由)を表頭、Q01,Q02,Q03を表側としてクロス集計表を出力します。

MULT RESPONSE GROUPS=$Q2_MA '購入理由' (q02_1 q02_2 q02_3
                q02_4 q02_5 q02_6 (1))
/VARIABLES=Q01(1 2) Q02(1 3) Q03(1 3)
/TABLES=Q01 Q02 Q03 BY $Q02_MA
/CELLS=COUNT COLUMN ROW TOTAL
/BASE=CASES.

アンケートの集計で使用する3つのシンタックスをご紹介しました。
注意点ですが、SPSSの集計で回答がなかった項目は集計に表示されません。例えば選択肢が1から5の内、5の選択がなかった場合は5が集計に表示されないのでご注意ください。

フリーウェアのRでもご紹介した内容と同様のことはできますので、機会がありましたら会員限定コンテンツ「官能評価でアール」の方で取り上げたいと思います。

また、「官能評価でアール」と連動した企画でオフラインインストール可能なメディアを有償配布しております。
2018年9月1日時点の全てのCRAN登録の12900パッケージを同梱しておりますので、ネット接続が許可されていない企業様にはお役に立つ内容です。

詳細はこちらから

SPSS関連の要望があれば、また取り上げてみたいと思います。

カテゴリー: 「官能評価なるもの」アーカイブ | SPSSのデータ操作に必要な3つのシンタックスー集計編 はコメントを受け付けていません

SPSSのデータ操作に必要な3つのシンタックスー準備編

官能評価のデータ解析ではR・JMP・XLSTATを使った解析が多いのですが、マーケティングリサーチ関連ではやはりSPSSを使うことが多いです。
アッサムや太閤などのアンケート用のソフトウェアもありますが、調査会社以外ではあまり使いません。
SPSSは多くの大学にインストールされていますし、企業でも導入しているところは多いです。

アンケートと官能評価は同じデータのように考えている方が多いですが、かなり異なります。

アンケート調査の場合は、1行が1名を表して設問数が列数となります。
一方、官能評価のデータは手法によって大きく異なります。記述型官能評価の場合は繰り返しを行いますので1名が複数行というのが普通です。

アンケートのデータ形式)
行数=回答者の人数
列数=情報列(回答日時、IPアドレス、Email、会員番号)+設問列
※MA(マルチプルアンサー)の場合、0/1データに変換すると1つの設問が選択肢の数に増えます。

記述型官能評価のデータ形式)
行数=パネリスト数×サンプル数×繰り返し数
列数=情報列(パネリスト数、サンプル数、繰り返し数)+属性列

SPSSはアンケートデータ形式に最適なソフトウェアだと考えています。
SPSSは「Statistical Package for the Social Sciences」の略とされていました。社会調査用という訳です。その名の通りアンケート調査や社会調査に向いていると思います。
※紆余曲折があり、現在はIBM SPSSとだけ表示しているようです。

最近、久しぶりにSPSSを触ったのですが、実務でSPSSを扱う場合はシンタックスが便利です。設問数が多く、多重回答(MA)の処理やクロス集計などもなかなかの手間です。
特にデータ準備に必要なラベルの設定は設問が多い場合はなかなか大変です。
しかし、シンタックスを使うと短時間で処理できます。また、データに修正があった場合でもやり直しが簡単です。

今回は、SPSSのデータ準備に必要な3つのシンタックスをご紹介します。

●SPSSシンタックスのルール

  • 大文字と小文字を区別しません。
  • コマンドは3 文字または4 文字の略語を使用できます(FREQUENCIES->freq)。
  • ピリオド(.) で終わります。
  • スペースは半角(全角は使わない)
  • 変数名は省略せずに入力(ピリオドは使わないことを推奨)
  • コメントは「/*」「*/」で囲むか「*」「.」で囲む
  • 全角スペースは使用しないこと

●1.変数ラベルの設定「VARIABLE LABELS」

シンタックス式:
variable labels 変数名 “変数ラベル”.

例:変数の名前が「Q01」に「年代」というラベルを設定します。

variable labels Q01 "年代".

●2.選択肢の設定「VALUE LABELS」

シンタックス式:
value labels 変数名
1 “変数ラベル”
2 “変数ラベル”.

例:変数の名前が「Q01」に8つの値とラベルを設定します。

value labels Q01
1 "10代"
2 "20代"
3 "30代"
4 "40代"
5 "50代"
6 "60代"
7 "70代"
8 "80代".

●3.選択肢の再コード設定「RECODE」

3つのコードを組み合わせます。
新しい変数を作り、元の変数を条件に基づいて変換します。

シンタックス式:
RECODE 元の変数名_条件 INTO 新変数名.
VARIABLE LABELS 新変数名 “新変数ラベル”.
VALUE LABELS 新変数名
1 “変数ラベル”
2 “変数ラベル”.

例:変数の名前が「Q01」から「GENERA」に3つのカテゴリに再コードします。

RECODE Q01 (1,2=1) (3,4=2) (5,6,7,8=3) INTO GENERA.
VARIABLE LABELS GENERA "世代".
VALUE LABELS GENERA
1 "平成"
2 "第二次ベビーブーマー前後"
3 "第一次ベビーブーマー前後".

私は上記のシンタックスをエクセルで作って張り付けています。
変数ラベルの設定であれば下記のような式です(エクセルのセル内の式)。

="variable labels " & 変数名のセル番地 & 変数ラベルのセル番地 & "."

 

Rでもアンケートデータの解析はできます。SensoMineRパッケージのサンプルデータ「cream_signa」はフランスで取得されたアンケートデータです。但し仏語です。
サンプルデータを使ってアンケートデータの解析も試してみてください。

最後に「SensoMineRハンドブック-Rコマンダー編-」のご予約ありがとうございました。ご注文いただいた方のお手元には届いていると思います。
SensoMineRを使いたいけど、なぜかエラーが出てしまう、という方にお勧めします。

絶賛発売中です。

またテキスト購入者限定の【社内研修無料キャンペーン】は8月末迄です。
ぜひこちらもお申し込み下さい。

 

カテゴリー: 「官能評価なるもの」アーカイブ | SPSSのデータ操作に必要な3つのシンタックスー準備編 はコメントを受け付けていません

NappingとUltra Flash Profiling(UFP)の統合解析

プロダクトマップをパパっと素早く簡単に作りたい。
そんな要望にお応えするのがラピッドメソッドです。

プロダクトマップは商品開発やマーケティングで用いられるツールです。
自社の商品やサービスが市場でどのような地位や位置を確立しているかを視覚的に表現するツールで、「ポジショニングマップ」とも呼ばれます。

そんなプロダクトマップが簡単に作れるということで国内でも人気が出てきているラピッドメソッドです。
手法別では、ナッピングが最も人気で、次にウルトラ・フラッシュ・プロファイリング(Ultra Flash Profiling; UFP)という状況です。

2つの手法は別々に実施しても良いですが、同時に行うことで早さに加えて情報量も増やせます。

まずは手法のおさらいです。

●ナッピング:
サンプルの類似性に基づき、サンプルをマップ上(X,Y座標)に配置する。

●UFP:
サンプルの特徴(ワード)を回答する。ワードは「,」コンマや「;」セミコロンで区切る。

FIZZの場合、ナッピングもUFPも同じ画面で作成・回答しますので、FIZZを使って説明する場合はナッピングの中にUFPを含めることがあります。

しかし、2つの手法は別々の手法です。

ナッピングで得られる座標データだけでは、マップの軸の意味を解釈できません。
しかし、ナッピングにUFPを加えることで軸の意味やポジションの意味を解釈することができるようになります。

プロダクトマップの作成スピードと情報量をお求めの方にはお勧めの手法です。

以前の記事で解説しましたが、SensoMineRではpmfa関数でRのスクリプトを使えば「ナッピングとUFPの統合解析」が可能です。
【ブログ】FIZZユーザーも必見!Napping®データをSensoMineRで解析

しかし、スクリプトなんて面倒くさいという方も多いでしょう。

そんな方に朗報です。

Rコマンダーを使えばスクリプトを書かずにマウス操作だけで「ナッピングとUFPの統合解析」が可能です。

Rコマンダーのメニューから
メニュー> SensoMineR> Holistic approaches> procrustes multiple factor analysis
で実行できます。

解析結果は下記の通りです。

ナッピングとUFPの統合解析

ナッピングとUFPの統合解析

 

中央の「5 T Buisse Cristal」と左上の「8 V Font. Domaine」にはどのような違いがあるのでしょうか?
プロダクトマップとベクトル図を見てみると、2つのポジションと評価属性「Light」の矢印が同じ方向を向いており、両者のポジションの違いに「Light」が寄与していることがわかります。これはナッピングだけではわからない情報です。
統合解析によって、軸の意味付けやポジションの違いを我々の理解できる言葉で解釈できるようになります。

このような統合解析が簡単にできるSensoMineRは、FIZZをお使いの方にもお勧めです。

今回ご紹介したSensoMineRをマウス操作だけで実行する方法をまとめた「SensoMineRハンドブック-Rコマンダー編-」が2018年7月末に発売されます。
7月末までの予約限定サービスとして①1か月間のメールサポート②3冊以上の購入で1回無償社内研修をご利用いただけます。

詳しくはこちらから

この機会にぜひお買い求めください。

カテゴリー: 「官能評価なるもの」アーカイブ | NappingとUltra Flash Profiling(UFP)の統合解析 はコメントを受け付けていません

SensoMineRパッケージのJARデータ解析機能

今回はSensoMineR最新版(v1.23)で採用された「JARデータの解析機能」をご紹介します。

SensoMineRはRの総合官能評価パッケージです。
2005年に最初のバージョンが公開されてから10年以上が経過しております。
SensoMineRは時代の変化に対応し、様々な機能が追加されてきました。
現行のバージョンは、2017年12月にアップデートされたv1.23です。

以前、ブログでもJAR(Just-About-Right scale)についてはご紹介しましたが、海外でJARデータの活用気運が高まっております。

SensoMineRのJARデータに対応したコマンドは2つです。

  • JAR(ペナルティ分析)
  • CA_JAR(コレスポンデンス分析)

Rコマンダーからこれらのコマンドを操作できませんので、スクリプトを入力して実行します。
ここではサンプルデータを使った例をご紹介しましょう。

■JAR(ペナルティ分析)

ヘルプのサンプルを書き換えて、全てのサンプルを1つの図に表示するようにしました。

##############################
### JAR-Penality analysis
##############################
#パッケージを読み込みます。
library(SensoMineR)
#データセットを読み込みます。
data(JAR)
#JARコマンドを実行し、結果をres.jarに代入します。
res.jar <- JAR(JAR,col.p=13,col.j=1,col.pref=2)
#1行3列の描画デバイスを設定します。
par(mfrow=c(1,3))
#3つのサンプルのペナルティ分析グラフを表示します。
plot(res.jar,name.prod=”284″, model=1)
plot(res.jar,name.prod=”859″, model=1)
plot(res.jar,name.prod=”972″, model=1)
#ここまで——————————–

 

■CA_JAR(コレスポンデンス分析)

次にコレスポンデンス分析によるマッピングを行います。
CA_JARのヘルプにあるExamples(サンプルスクリプト)は下記の通りですが、このままでは実行できません。

data(JAR)
res <- CA_JAR(JAR)
plot.CA(res,invisible=”row”,cex=0.8)

2行目のCA_JARについては引数が足りないようです。ヘルプを参照して引数を修正します。

#2行目修正後コード
res <- CA_JAR(JAR,col.p=13, col.j=1, col.pref=2, jarlevel=”jar”)

また、3行目のplot.CAについては、対象のデータフレームresのままではエラーが表示されます。 そこでplot.CAのヘルプを参照してみると第1引数にはCAクラスのオブジェクトを指定する必要があります。 resの中身をattributesコマンドで確認してみましょう。

> attributes(res)
$names
[1] “Frequency” “res.CA”

resの中には2つの項目があることが分かりました。各項目のクラスをclassコマンドで確認します。

> class(res$Frequency)
[1] “matrix”
> class(res$res.CA)
[1] “CA” “list”

res$res.CA がCAクラスのオブジェクトであることがわかりましたので、第1引数を修正します。

#3行目修正後コード
plot.CA(res$res.CA,invisible=”row”,cex=0.8)

下記が修正したスクリプトです。

##############################
### JAR-Correspondence analysis
##############################
#パッケージを読み込みます。
library(SensoMineR)
#データセットを読み込みます。
data(JAR)
#コレスポンデンス分析を実行します。
res <- CA_JAR(JAR,col.p=13, col.j=1, col.pref=2, jarlevel=”jar”)
#グラフを表示
plot.CA(res$res.CA,invisible=”row”,cex=0.8)
#ここまで——————————–

ところで、plot.CAを実行しなくてもCA_JARを実行した時点でマップは作成されます。
なぜplot.CAが必要なのでしょうか?

これはCA_JARではグラフのカスタマイズが出来ないためです。
カスタマイズされたグラフを作成したい場合は、plot.CAを使って目的に合ったグラフを作成します。

さて、今回はSensoMineRの新機能JARデータの解析をご紹介しました。

最新の官能評価手法にも対応したSensoMineRを使いこなせると活用範囲が広がります。
ぜひ、SensoMineRを使ってみてください。

弊社ではSensoMineRを使いこなすために次の2つのサービスをお勧めしております。

1.テキスト「SensoMineRハンドブック -Rコマンダー編」の7月末発売
SensoMineRをマウス操作で活用できる「SensoMineRハンドブック -Rコマンダー編」の予約を受け付け中です。
Rコマンダー(GUI)を使ったSensoMineRの操作方法を網羅しております。パッケージ内のサンプルデータを使って解析ができるので自習テキストとしてもお勧めです。

2.ブログ新コンテンツ「官能評価でアール」を2018年7月開始
通常の投稿記事でもRや官能評価パッケージ等についての情報やエラー対応などの情報を提供しておりますが、これに加えて、Rに特化したコンテンツ「官能評価でアール」を7月より開始いたします。不定期更新となりますが、パッケージの詳細な情報や解析過程等を紹介していきます。

読者の対象レベルは、

「マウス操作(Rコマンダー使用)なら何とかなる」

という方を想定しております。なるべくスクリプト(プログラム)は使わずに
説明いたします。

なお、新コンテンツ「官能評価でアール」はブログへの登録が必要となります
ので、ご興味のある方はこの機会にご登録をお願いいたします。

カテゴリー: 「官能評価なるもの」アーカイブ | SensoMineRパッケージのJARデータ解析機能 はコメントを受け付けていません

官能評価業務おけるRPA(Robotic Process Automation)の準備

ビッグデータ関連の業界ではRPA(Robotic Process Automation)という言葉が流行っております。
いわゆるパソコン操作の自動化です。

今まででも、Excelのマクロ機能やuwscなどのマクロ(自動化)ソフトを使ってパソコン操作を自動化出来ていたのですが、RPAではフローチャートなどを用いてプログラムを書かずに自動化できる点が既存のマクロソフトに比べて優れている点でしょう。

多くのRPAソフトで、実用可能なレベルの自動化を作成しようとすると、業務の流れを正しく描き、またイレギュラーな動作を想定したエラー処理を適切に行う必要があります。
これはプログラミングスキル(論理的思考、またはアルゴリズム的思考)といってよいでしょう。
このようなスキルが必要となるのであれば、現時点でRPAのメリットというのは費用対効果が主であり、人間が従来出来ないことをRPAで出来るようになるという訳ではありません。

一方、RPAの先にはAIによる業務の自動化も見据えています。状況に応じた判断を含むパソコン作業も自動化される時代が来るのでしょう。

そこで、官能評価業務もRPAや業務の自動化への準備を始めてみませんか

弊社の研修では次の話をしております。

「近い将来、解析業務は自動化されるでしょう。官能評価の従事者に必要とされる能力は解析業務ではなくなります。解析結果の解釈や、自動化が難しいパネルマネジメントが重要なスキルとなるでしょう。」

現状では、どのような官能評価業務ならば自動化できそうでしょうか。
例えば下記の業務です。

・定型解析業務
・定型レポート作成
・パネル招集
・パネル選抜

この他に、設計業務でも定型的なものならば可能でしょう。

逆に、アドホックな評価(1度きりのカスタム評価)に関する業務は自動化が難しいです。
また、評価実施(試食試飲)に関わるプロセスは「データを取得に失敗するリスク」を考えると自動化のメリットが割に合わなくなります。

つまるところ、業務の自動化や効率化は、その業務を行う上でイレギュラーがどの程度発生するかに基づき、「自動化によるメリット」と「失敗によるリスク」の兼ね合いによって適否が決まります

官能評価担当者レベルで対応可能な自動化は「解析」と「レポート」が適していると思います。(パネル招集等も社内システムによっては可能でしょう)

実際、評価回数の多い企業(毎日のように評価が行われている企業)では解析テンプレートを使っています。
例えば下記のようなものです。

・関数を設定したExcelシートを作成して、取得したデータを張り付けるだけで、レポートシート(A4サイズで2枚)が完成するような仕組み
・Rのテンプレートスクリプトを用意しておき、数か所書き換えるだけで解析とHTMLレポートが作成されるような仕組み

弊社で受託した案件では下記のような事例があります。(受託例はこちら

・FIZZデータをExcelで処理
・FIZZデータとRで処理(出力はhtml形式)
・ExcelとR(解析エンジンとしてRを使用。出力はExcel)

外部に発注するほどでなくても、Excelのテンプレートを作成しておくことで業務はだいぶ楽になります。

また、同時にテンプレート作成をしていく中で「本当に必要な情報は何か」が明確になってきます。現在の統計ソフトは様々な指標を出力してくれますが、本当に必要な情報はそれほど多くありません。

2018年時点の自動化への第一歩は「テンプレートの作成」だと考えております。

テンプレートの作成を通じて、業務を見直し
テンプレートの作成によって、業務を自動化し、
テンプレートの作成によって、RPAに備える

「テンプレート」があれば業務の引継ぎも楽々ですよ

カテゴリー: 「官能評価なるもの」アーカイブ | 官能評価業務おけるRPA(Robotic Process Automation)の準備 はコメントを受け付けていません

jmp14が出ましたので一言

jmp14が発売されました。
官能評価担当者の中でもjmpユーザーは多くいらっしゃいます。
以前は弊社のクライアント向けにjmpの提案をしておりましたが、近年はRやXLSTATを主に提案するようになりました。

やはり一番のポイントは「価格」です。
多くの官能評価部門の予算は少なく、人数分のソフトウェアライセンスを確保するとなるとそれなりの金額になります。
その点、フリーウェアのRは人数に関係なく無料です。XLSTATは機能を絞って製品を選べば、jmpに比べて金額を抑えられます。

次に「手法」です。
官能評価で用いる分析手法は、マーケティングなどの分野に比べて限定的です。
jmp14では官能評価で用いられるMFA(Multiple Factor Analysis:多重因子分析)やBIBD(Balanced incomplete block design:不完備釣合い型ブロック計画)が搭載されましたが、今更感があります。
Rは様々なパッケージがあるので、当然これらの分析は可能です。また、XLSTATのセンサリー版はこれら手法は以前から搭載されています。XLSTATは手法の採用が早く、現バージョンでは通常の官能評価運営に必要なツールが一通り揃っていると言えます。

但し、XLSTATのR連携機能はPC環境によってはうまく作動しないことがあり、今後の改善が望まれます。

R連携については、基本的にRはR単体で使うのが良いと考えています。
Rの出力をファイル等に出力し、他のアプリケーションで編集・加工するというのがトラブルが少ないように思います。
例えば、Excelを分析ハブとしてExcel上でXLSTAT(アドインなので当然ですが)で解析と編集、Rの解析結果をExcelで編集という使い方(R仲介法)がトラブルなく使える使い方として推奨しております。

最後に「ライセンスの問題」です。
jmpのライセンスは複雑で、シングルライセンスと年間ライセンスによっても異なるようです。
ビッグデータのように第3者データを扱う場合は注意が必要です。jmpオンライン注文の画面には下記のような文言があります。

「ご注文または価格についてご質問がある場合、あるいは業務上で第三者のデータ処理が発生する場合は、当社までお問い合わせください。」(2018年5月7日確認)

様々なデータソース、特に第3者のデータを扱う場合はjmpではライセンス上の問題が出てくるので注意が必要です。

以上の3つの理由(価格、手法、ライセンス)から、近年はRやXLSTATを中心に提案するようになってきました。

しかし、それでも私はjmpを使い続けています。

理由は「使いやすさ」です。

jmpに初めて触れたのはjmp4か5の頃です。しかし、それまで使っていたSPSSなどの統計ソフトなどの操作感とあまりにも違いすぎて使わずに放置していました。何せ、主成分分析を行おうにもメニューに主成分分析がなかったのですから・・・。業務上の必要に迫られて、jmpの使い方を勉強しました。当時では下記の書籍を参考に勉強しました。

・JMP活用 統計学とっておき勉強法―革新的統計ソフトと手計算で学ぶ統計入門 (ブルーバックス CD-ROM)
・JMPを用いた統計およびデータ分析(JMP START STATISTICS)

多少jmpを使えるようになってから、jmpの操作感は直観的で分析者の想像力を刺激するような構成になっていることに気が付きました。
例えばjmpではデータシートやグラフがリンクしています。探索的な解析をしているときに、グラフ上の気になるポイントを選択するとデータシートの当該データ行もアクティブになり、そこからサブセットを作成し、解析する。こんな分析がスムーズにできてしまうというのがjmpの魅力です。

jmpに一度慣れてしまったら他のソフトウェアには戻れなくなりました。
まあ、実際は他のソフトも使ってますが、未だにjmpがメインツールです。

各ソフトについて私なりのメリットデメリットをご紹介しましたが、官能評価データの解析ソフトウェアの選択指針を下記に示します。
・ソフトウェアの学習コストを抑えつつ、自社データの探索的な分析も行いたいのであれば「jmp」をお勧めします。
・予算を抑えつつ、官能評価データを主に扱うのであれば「XLSTAT-Sensory」がお勧めです。
・ソフトウェアの学習努力ができて、最新の分析手法も行いたいのであれば「R」をお勧めします。

なお、解析界隈ではRに並んでPythonが解析言語として人気です。しかし、官能評価データの解析に限って言えば、現時点ではRの方をお勧めします。理由はRの方が官能評価パッケージが揃っているからです。

ソフトウェアを一度決めてしまうと変更には大変な労力が必要です。過去の資産や操作技術の再習得などの価格以外のコストも考えると導入時期にしっかりとメリットデメリットを理解しておくことが大切です。

弊社ではユーザーのニーズに合ったソフトウェアをご提案しております。
官能評価・マーケティング・ビッグデータ・人工知能などの用途別に、また解析スキルに合わせたソフトウェアをご提案いたします。

お気軽にお問い合わせください。

カテゴリー: 「官能評価なるもの」アーカイブ | jmp14が出ましたので一言 はコメントを受け付けていません

識別法習得のためのおススメ:書籍とセミナー

MagicSenseの識別法モジュールを3/1に発売いたしました。
お陰様で好調です。
識別法はもう使われていないのではないかと危惧しておりましたが、まだニーズがあるようでホッとしました。

識別法については、書籍やセミナーのご質問をいただくことがございます。
そこで今回はお勧めの書籍とセミナーをご紹介します。

まず識別法については下記の書籍をお勧めしております(昨年発売です)。

Discrimination Testing in Sensory Science
1st Edition
A Practical Handbook

3/12~4/2までディスカウント中です。プロモーションコードはこちらで確認(執筆時点で「SPRING18」)です。

また、ebookはDRM-FREEなので複数のパソコンに入れておけるのが便利です。
お勧めはバンドル版です。印刷された本とPDFが一緒になったセットです。

内容は識別法の歴史から現在のトレンドまで網羅しております。
また、Rの識別法パッケージであるsensRの解説があります。
sensRのヘルプだけではわかりにくい点も説明されているのでsensRを使いたい方にはお勧めの書籍です。

識別法のトレンドの1つとして、サーストンモデルによるd’(d-prime、差)の使用があげられます。
d-primeはsensRの結果出力でも標準的に出力されます。
実は、日本の官能評価者にはサーストン法が普及しているためサーストンモデル自体は今更感はありますが、近年見直されておりsensRにも採用されております。
アプローチや計算方法もアップデートされているのでサーストン法をご存知の方にもお勧めです。

但し、実務的な利用に重点を置いており、理論的背景はリファレンスに挙げられた論文等で補完するのが良いでしょう。

セミナーについてですが、識別法を扱っているセミナー自体があまり見つかりませんでした。
キーワード(識別法 官能評価)の検索で、3月実施のセミナーが見つかりますが識別法の内容が古いです。佐藤信著の「統計的官能検査法」(1985)の時代から変わっていない内容に逆に驚きです。
※「統計的官能検査法」は内容は古いですが、官能評価における統計的な考え方について詳細に説明されている名著です。ぜひ1冊お手元にどうぞ。

2018/5/24に私(平沼)が他社主催セミナーの講師として識別法とsensRを取り上げます。こちらは他社主催なので興味のある方はご連絡いただければ主催者をご紹介いたします。
※お問合せフォームからご連絡ください

識別法については、官能評価の実施方法自体はそのままに、解析手法が進歩しているという状況です。
「いまさら識別法」などと思わず「今こそ識別法」ぐらいの気持ちで見直してみてください。

カテゴリー: 「官能評価なるもの」アーカイブ | 識別法習得のためのおススメ:書籍とセミナー はコメントを受け付けていません

FIZZ Tips: FIBasicを使ったカスタマイズの日本語表示

FIZZユーザーの中には基本的な使用法では飽き足らず、様々なカスタマイズをご希望されるユーザー様もいらっしゃます。

FIZZの究極カスタマイズといえば「FIBasic」です。
FIZZオリジナルのプログラム言語ですが、VisualBasicやVBAに似た言語です。

FIBasicのマニュアルが添付されているので、カスタマイズの手始めにはマニュアルに記載されたソースコードを使ってみるのが良いと思います。
様々なことができるFIBasicですが、デフォルトでは日本語表示ができません

そこでsetFont関数を使います。

SetFont(DlgItem,Font$,Size,Style,Color)
DlgItem:フォントを変更するオブジェクト名
Font$  :フォント名(日本語対応フォント、または”System”を指定
Size   :フォントサイズ
Style :スタイル ex) normal(0), Bold(1), italic(2),underline(4), strike(8)
Color   :カラーコード ex)black(0),red(255)

以上を必要な個所に設定すると下記のように日本語表示となります。

様々な関数が用意されているので、アイデア次第で様々な機能が使えそうです。
一方でFIBasicは独自の言語体系を持ち、他の言語に比べてユーザー数が少ないため、あまり浸透していないのが実情です。

弊社では様々なカスタマイズをご提案しております。
カスタマイズでは、多くの企業に普及しているExcelを使ったアプリケーションを優先的にご提案しております。
ExcelVBAを中心として統計解析フリーウェアRを組み合わせて解析の自動化を実現しております。

ご興味のある方はお問い合わせください。

受託開発サービスのご紹介(企業サイトへのリンク)

カテゴリー: FIZZ | FIZZ Tips: FIBasicを使ったカスタマイズの日本語表示 はコメントを受け付けていません