当前位置:首页 > 学习分享 > 正文内容

写文章 零粉丝,运用错位竞争,运营「好物推荐」

钩钩4年前 (2020-10-09)学习分享1144

知乎新用户在零基础的状态下运营"好物推荐",短期很难产生效益!

优质问题下往往已经有了优质的推荐,新答案很难出头!

目标问题其实很多,但不知优先回答哪些!

自写文章又不知如何选题!


在零基础(账号数据几乎为零)、零经验的状态下,面对官方一再力挺的"变现项目"却无从下手是大部分人惆怅的地方。

而正如标题所言,今天这篇文章,我们来尝试使用"错位竞争"的方式,解决以上的问题。


"好物推荐",是我个人十分认可的一种变现方式,它给用户需要的内容的同时帮助内容贡献者带来相应收益,而且目前官方也一直在大力宣传,趋势很好。

但是用自己"零数据基础"的新账号跟各种大V直接在知乎里比拼显然是不理智的,因此我把眼光放到了站外。

因为我本身是SEO(搜索引擎优化)出身,对百度等搜索引擎的"调性"比较熟悉,所以在19年知乎宣布F轮融资、百度领投之后:

很快了解到了知乎的百度搜索流量翻了好几倍,来源于百度搜索的流量在知乎整体流量来源的比重中又上升了很多。

我们在做SEO的时候经常要跟踪自己站点的排名变化,以便做相应的站内优化,因此我想到了把两者的思路结合一下,形成一个"利用知乎在百度的搜索结果排名来指导我们运营「好物推荐」"的思路。

即:优先选择拥有巨大百度流量却还没有优质回答的问题,形成错位竞争!


大致步骤是:

挖掘目标类目的关键词,批量到百度里搜索,统计这些关键词的搜索结果中,属于知乎的链接里相关问题的具体排名。

然后利用搜索引擎的"点击率分布数据",结合问题的排名来赋予每个问题相应的流量占比。

最终形成一份报表,根据每个问题的流量占比和覆盖词数来筛选优质问题。


如果不明白没有关系,跟着过一遍就懂了,以下开始演示实操步骤!


步骤1:挖词

本文选择"厨具"类目作为本次的演示数据,即假设我们是一个准备推荐"厨具"相关品类的作者,我们对如何选购"冰箱"、"电饭煲"、"电磁炉"、"油烟机"、"榨汁机"等有相关经验。

那么我们需要围绕这些产品名称来挖词。

挖词渠道推荐:百度关键词规划师、艾奇关键词助手、5118、爱站

挖词工具具体使用可以看我第1篇文章。

本次方式不需要海量关键词,因此只演示一种渠道,本文以艾奇关键词助手为例。


我们希望通过挖词搜索来统计出流量大的知乎问题,但是并非什么问题都是我们想要的,对于做"好物推荐",我们需要的显然是这样的问题:

而非这样的问题:

因此,在挖词时,应该人为的添加相应的后缀,来控制挖掘出来的长尾词。

分两方面:通用后缀和行业相关后缀

通用后缀:

与好物推荐相关的问题总是围绕着:推荐、哪个好、怎么选等等。

包括但不限于:

推荐、排行、品牌、质量、靠谱、哪个好、怎么选、哪里买

行业相关后缀:

与厨具电器相关的一般会涉及:参数、性能、功率、噪音等等。

两者可以结合个人经验和想象力拓展出更多后缀,然后在Excel里把每一种产品轮番对应一遍:

复制到挖词渠道上拓展,我们这里使用艾奇关键词助手,它的数据是来源于百度的:

上方是我们复制进去的关键词,一行算一个,下方是每行拓展出来的关键词。

其他产品一样使用同样的方式,再把它们挨个导出来汇合到一起,拓词就算完成了。

我们本次的统计方式是计算各自的流量占比,不需要太多词,有个1万以上都是足够体现的。

我们可以把厨具类的产品都收集一遍,也可以只收集我们只想推荐的,比如:冰箱,然后尽可能丰富一下后缀。

如果是收集多种产品一起统计,注意产品之间的关键词数不能相差太多!


简单清洗:

一般挖词后都需要清洗关键词,可以根据我之前第1篇文章的步骤简单清洗即可:

我们本次涉及的关键词数并不多,因此直接合并几份数据,在Excel里清洗即可(Excel如果不会可以看我第3篇文章)。

需要特别说明的是:

在这里,"去长去短"这一步:主要去掉太短的,6个字及以下的去除掉,长的放着。

"去非目标词":着重思考下目标类目经常会产生哪些我们不需要的后缀,批量去除掉,比如:维修。


步骤2:收集及统计数据

我们现在挖掘出了一批词,大约17000个,搜索量为0不是指没有人搜索,而是阶段性搜索量低而没有显示,我们现在要用这些词批量收集排名数据。


在收集及统计前我们先了解搜索引擎"点击率分布数据"的概念:

搜索引擎第一页的每一个排名(1-10)都是有对应的较为明确的点击率数据的。

各大搜索引擎已经好几年没有更新发布新的点击率数据了,目前比较主流的数据仍然是早年公布的:

按照这份数据红框部分,当用户搜索一个关键词的时候,排名在第一位的搜索结果被点击的概率是42.28%,下面的排名依次类推(排名第一的流量就是这么强悍)。

进而得知,如果一个关键词一天的搜索次数是100次,那么理论上排名第一的这个页面会被点击42.28次,也就是获得了42.28个流量值。


我们的统计逻辑是(重点):

收集一批与"好物推荐"相关的长尾词,假设每一个长尾词一天的搜索量都是1(因为长尾词的特点是往往有海量的变种词汇但单个词汇搜索量极低),把它们批量拿到百度里搜索,记录每个知乎链接的排名位置,结合上面的点击率分布数据来预估该链接获得了多少流量。

比如搜索:"家用抽油烟机哪个牌子好",在搜索结果里,有一条知乎的问题链接:

它排在了第二位,按照上面的点击率分布数据,它应该获得11.92%的流量,因为我们假设这个长尾词的搜索量是1,因此它实际获得了0.1192的流量。

按照这个逻辑,我们批量搜索,批量统计,最终就可以计算出每一个遇到的知乎链接,它在被各种关键词搜索时总共可以获得多少流量(预估)。

这个思路是我们之前在SEO行业群里讨论,一个朋友分享的,是一个很好的统计思路,我们之前把它运用到我们自己站点来跟踪排名变化,现在则结合到这里来预估知乎某些链接的流量。


当然我们会发现,这个流量值根本只能是相对的,因为它跟我们究竟批量搜索了多少个关键词有关,跟每个关键词的具体搜索量有关,跟实际的点击情况有关。

但是没有关系:

长尾词的搜索量几乎可以约等于1

搜索引擎的点击率分布这么多年其实不会改变多少,因为搜索场景一直没有变更

关键是,每一个问题被统计时,它们面临的影响因素都是一样的,但是实际统计出来却仍然会有不一样的流量占比,这完全是因为它们自身的排名差距所导致的,而我们就是要统计出这种差距。

至于用了多少个关键词,也没有关系,我们要的只是相对占比,不需要具体的绝对值,我们当然不能拿三五个关键词说事,但是上万个的关键词综合统计出来的数据是具备参考性的。

因此,使用这种方式,我们可以统计出用户在百度搜索目标类目关键词时,哪些问题总是比较能获得更多的流量。


逻辑清楚后,就要考虑如何实现,在这里我依然是推荐使用Python,如果不会技术,这个程序想要学会自己写,也是相对简单的,比之前的"词文本向量分类"简单多了,按照我之前第3篇文章里介绍的学习路线即可,同样都是思维重要,技术本身却很简单。


接下来简单介绍一下程序步骤(不会编程可以跳过本段):

准备3个变量,用于分别存储问题、文章(稍后解释)、关键词的累积数据。

问题及文章变量的存储结构为:链接、ID(问题或文章)、预估流量值、覆盖词数

关键词的存储结构为:关键词、涉及问题数、涉及文章数


1:循环提取关键词到百度里获得搜索结果

2:在每次返回的结果中做如下操作:

a:非知乎问题和文章的链接一律跳过

b:碰到知乎问题(文章)链接时,根据它的排名(按接收到的顺序算排名)计算对应的预估流量值

c:该链接覆盖的词数自动+1

d:当前关键词涉及问题(文章)数自动+1

3:将所有数据存储,并分别打印到Excel里


下面是一段伪代码:

# 点击率分布数据clickrate = {
	1:0.42134,
	2:0.11897,
	3:0.08498,
	4:0.0606,
	5:0.04916,
	6:0.0405,
	7:0.03412,
	8:0.03014,
	9:0.02849,
	10:0.02995}question = {'url':{'id':'','score':'','id':'key_num',}} # 问题表article = {'url':{'id':'','score':'','id':'key_num',}} # 文章表keyword = {'key':{'q':0,'a':0}} # 关键词表# 抓取搜索结果def GetJson(key):
	rel_json = requests.get(link)
	return rel_json# 统计数据def CountScore(rel_json,key,question,article,keyword):
	# 循环读取每一条数据
	for data in rel_json:
		# 得到链接、排名、ID
		url,pn,ids = data
		# 计算预估流量值
		score = 1 * clickrate[pn]
		# 填充数据
		question[url] = {'id':ids,'score':score,'key_num':1}
		# 关键词加1
		keyword[key]['q'] += 1
	return question,article,keyword

伪代码仅仅写了核心的部分,侧重说明一些核心步骤,有些代码是错误的,一些不重要但必要的步骤也是缺失的,仅作参考使用。

采集过程控制下速度,利用公开数据做分析,尽量尊重下平台规则。

另外,我们刚才介绍思路时谈的对象一直是问题,实际统计中,其实也同时统计了文章,因为它也有其他的指导意义。


步骤4:分析挑选(重点)

在我们自动统计完所有数据后,我们会得到一份Excel,它有三张表,分别是:问题、文章、关键词。

"问题表"的数据如下:

问题链接:它是我们在收集的过程中遇到的每一条独立的链接,在表里是唯一的

问题ID:从链接中提取,每个独立的问题都有各种不同的链接被百度收录,在表里是会重复的

预估流量值:每一条独立的链接在收集中综合统计出来的预估流量

覆盖词数:在搜索所有词时,该链接出现了多少次,说明覆盖了多少个词


至于为什么一个问题会有多个链接被百度收录,是因为在知乎一个问题有多种版本的链接。

一条标准的问题链接:

https://www.zhihu.com/question/30688154

一个问题其中一个答案的链接:

https://www.zhihu.com/question/30688154/answer/49036927

一个问题带各种参数的链接:

https://www.zhihu.com/question/30688154?sort=created

这些参数代表各种意义,比如按各种维度排序等等


对于搜索引擎来说,一个链接就是一个页面,虽然是同一个问题下的,但是被搜索引擎抓取时都是看待为不同页面,都会收录。


根据上诉的数据关系,我们可以使用Excel的"数据透视表"来统计出单个问题获得的总流量值(也就是把所有属于这个问题的链接对应的流量值都加起来),选择所有数据,然后"插入"-"数据透视表":

会得到这样一份表:

勾选"问题ID"、"预估流量值"、"覆盖词数",按照如下放置:

左边的数据就是我们需要的,它以单独的问题ID为标识,对应着每一个问题获得的所有"预估流量值"和"覆盖词数",复制过来放到一份新表:

"文章表"的数据也是一样的:

它的情况和"问题表"一样,同时也一样统计出一份新的汇总表。

"关键词表"的数据:

关键词:我们拿去搜索的词,搜索多少个,这份表就有多少条记录

涉及问题数:该关键词搜索之后,遇到了几个不同的问题

涉及文章数:该关键词搜索之后,遇到了几个不同的文章


数据表的意义我们理解了,也汇合成新的数据表了,那么有什么指导意义呢?

1:对于"问题汇总表",提取出预估流量高并且覆盖词数多的问题ID。

这些问题都是在百度拥有相对高的流量来源的,优先在这些问题底下推荐才有机会获得更高的曝光量。

2:对于"文章汇总表",提取出预估流量高并且覆盖词数多的文章ID。

虽然文章是别人发表的,我们也没办法回答,但是可以研究对方的标题和内容,知乎在百度的权重已经足够高了,不用担心我们发布的文章不被收录或者排名不好,剩下的就是在比拼标题和内容,研究对方的标题和内容是如何布局关键词的,这是文章在百度排名优异的一部分关键。

3:对于"关键词表",提取出涉及问题数多和涉及文章数少的关键词。

涉及问题数较多说明该词在目标类目里具有相对代表性,才能在搜索时出现相对多的各种同类问题,同时,如果该词涉及的文章数较少,或者几乎为0,说明用户目前在百度搜索该词时,还没有能排得上来的好文章,那么显然我们应该:

以该关键词为标题,围绕该关键词撰写一篇优质的推荐文章,用这种方式布局用户可能会搜索到的各种需求。

当然:

"家用抽油烟机哪个牌子好" 和 "家用抽油烟机哪个品牌好"

这显然是可以被一致看待的两个长尾词,那么就不要为此重复的撰写两篇文章,这是在制造信息垃圾,无论站在用户体验、平台规则、自身形象的角度,都是有害的。

如果我们针对该长尾词撰写了一篇文章,按照知乎在百度的权重,很快就会被收录,如果我们发现新发布的文章链接迟迟在百度没有收录,我们可以主动去提交。

先判断是否收录:

把目标链接放到百度里搜索,能找到就代表有收录了,如果没有收录:

点击红框里的"提交网址":

点击提交后,搜索引擎就会知道这条链接,只要我们文章不是三两个字的,一般都会被收录。

4:提取"问题表"里,带"updated"字符串的链接,比如:

https://www.zhihu.com/question/30518410/answers/updated

这是一条我们收集到的被百度收录的知乎链接,它其实是一个问题的答案按照"时间排序"后形成的链接:

我们之前说过,对于搜索引擎,一个链接就是一个页面,尽管其实是同一个问题的不同排序结果而已,但对于搜索引擎,也是单独看待的页面。

那么当这样的链接被百度收录了,用户通过百度进来之后,他看到的这个问题的页面是按照"时间排序"的,所以用户先看到的第一个答案是最新回答的

因此,我们肯定也要优先回答这样的问题,当然了,我们这样想,别人也这样想,但是总比用户进来之后,回答里没有我们的相对好,至少在短期内,该问题下的最新回答,我们可以排在第一或前几。


刚才1、2、3里都提到了"提取相对较高"这个思路,那么在Excel里具体怎么做呢?

我们可能会收集到几万个问题,这么多问题里,挑选出多少个合适,怎么才算是相对较高?

这里我们按百分比即可,分两种方式:

假如我们收集到的问题只有小几千个或者千把来个,那可以直接用Excel的四分位公式。

比如下面一张表:

假设这是我们收集回来的数据,所有的预估流量值如上,我们需要提取出预估流量值最大的top25%,也就是提取出这10个数当中数值能大于其他7.5个以上的那些值。

这数据太简单,眼睛观察就知道目标数值得是大概大于7.5以上的。

而Excel的四分位公式可以帮我们得到:

公式:=QUARTILE($A$2:$A$11,1)

第一个参数"$A$2:$A$11"就是我们的目标数据列的表格范围,实际看具体数据有多少。

第二个参数填入多少,对应取的值如上图所示,我们填入3,就能得到大于75%个数的数值是多少:

其他分位是一样的方式:

也就是说,某个数值大于等于7.75,就能超过75%的其他数值,所以我们通过筛选:

就可以得到我们需要的预估流量值top25%:

在10个数值中,8、9、10超过了其他75%的数值。

因此:提取"问题汇总表"里的预估流量值和覆盖词数较高的前25%就可以使用这种方式,因为数据量本身不大:

如上图所示:第三分位已经被我们都计算出来,只要针对预估流量值和覆盖词数两列同时做筛选,就可以提取到我们要优先处理的top25%的问题了,1000个里提取出来,大概也就250个左右。


但是我们面对的可能不是千把个问题,往往是上万个,如果提取top25%,那就是2500个,那这个"优先级"的范围也太大了,因此我们需要另一种方式:

公式:=PERCENTILE.EXC($A$2:$A$101,99%)

在这里,我们可以把这个公式当成上面四分位的灵活版本,不过这个公式需要对面100个以上的数据才可以。

第一个参数依然还是目标数据的表格范围标识。

第二个参数,当我们填入99%,相当于100%-99%=1%,也就是我们会得到top1%的数值。

然后再用上面同样的方法,用这个得出来的top1%的数值做筛选,就可以提取相对较高的前1%的目标问题了。

换成90%,就相当于提取前10%的数值了。


我们本次收集的问题大概是8000+,使用这种方式提取前1%:

从图中可以看到,预估流量值的数值只有大约1%是超过13的,覆盖词数同理。

这是计算出来的top值,利用它们同时筛选,得到优先数据:

能满足条件的只有74个,这就是我们首先要回答的问题了,当然我们优先回答完一批,把它们清理后,继续使用同样的方式再提取top的数据即可。

"文章汇总表"和"关键词表"的数据同理处理。


我们在筛选出来的这些top1%的数据里随机挑选一批检查,发现它们主要会包含这两种类型的问题:

问题ID:19731617

预估流量值:93.99683

覆盖词数:1099

这种类型的问题,它的答案数量不少,但相对大热门的问题,却也不多,中规中矩,现有答案的质量参差不齐,一般有个正儿八经的长文推荐,都能排在前头,整个问题的浏览量很高,甚至高到与其他数据不成比例。

几十个回答,几百个关注的问题,却有百万级的浏览量。

对于搜索引擎来说,这样的问题肯定算是优质内容了,它在百度里的排名高是正常现象,恰恰验证了这种统计方式的逻辑没问题。

这些在搜索引擎排名比较好,流量比较高的问题,它们的浏览量数据和其他数据不太成比例,考虑到可能是来源百度的用户多,但是这些人只是看,有需要可能会点击链接直接买,但不会对问题关注或点赞,搜索的目的性总是很强。

像这样的问题,流量大,但回答数却还不是很多,现有回答的质量也没有非常突出,就是一种潜在的机会。


问题ID:287723879

预估流量值:134.89637

覆盖词数:423

只有三个回答,而且内容的质量并不高,不是专门的推荐:

我们都知道零星一两个答案的问题,在知乎基本上不会有什么推荐,再加上没什么人点赞,就更不可能扩散,所以这类问题的浏览量应该大部分是来源于搜索引擎。

我们搜索一下百度:

除了广告,这个问题已经是第一名了,排名确实很好,而且"凹面电磁炉推荐"算不上很长的长尾词。

我们来看看"凹面电磁炉"的搜索量:

由它延伸出来的长尾词会有千千万万个,这些搜索量加起来是很可观的。

那么我们可能会疑问,排名这么好,搜索量也不低,怎么这个问题浏览量也才不到1万?


我们都知道关键词有长尾性质,一个"电磁炉",加上属性、品牌、需求,可以演变出各种各样的词,它们的特点是单个搜索量很小,但是胜在词量大,每天都有各种人去搜索各种词,多得是我们想象不到的。

而对应的,问题肯定也有这种长尾性质,从百度搜索之后,用户不一定都进入到这个问题,也就是流量会被各种同类问题分散掉,比如下面这个:

问题ID:294901665

预估流量值:26.53348

覆盖词数:434

这个问题跟上面的属于同一类,它有一万多浏览量,但是只有两个答案,还都不是在做推荐的。

也就是说,这两个问题,它们都是在知乎里基本不会被推荐的问题,但是它们会靠着百度的来源流量,日积月累的提升浏览量。

我们主要要做的就是这类问题,在某个大类里,它们可能成百上千甚至成千上万,它们都不会被推荐,不会有其他人来竞争,几乎没有现有的答案,但是它们都有稳定的流量,这些问题合起来的总流量不低于大热门的流量。

假设一个类目里有100个这样的问题,这些问题在百度的排名都很好,每天被各种搜索类目长尾词的人访问,这些问题里大部分都是我们的答案,甚至只有我们的答案,那能带来的长尾流量即可观且稳定。

特别是稳定,这么多无人竞争的问题都被我们覆盖了,短期内不会有太大的变化,如果我们运气好在某个大热门的问题下写了个优质答案,但是这种答案注定不多,很有可能某天就被人压下去了,流量会瞬间失去。


有需求、有流量、有排名,却没有好的内容来解决用户需求,这正是需要我们去完善的。

我们跟各种大V去竞争各种热门问题,还不如来解决这些有流量却还没有人搭理的需求。

综上:

回答不多但流量很大、回答很少但综合流量大,这两类问题就是我们找出来的"错位"。


写在最后:

1:几个提升点

在百度搜索时加入"site:目标站点域名",可以使得搜索结果皆为目标站点的内容。

比如:

像这样搜索:"油烟机推荐 site:zhihu.com",那么我们能看到的结果都是来源于知乎的。(除了广告)

我们在抓取搜索的过程中可以选择要不要在关键词后面加入site指令,加入之后因为返回的都是知乎链接,方便收集和统计,同时也不用担心这种方式会影响排名的客观性,即使是站内之间,每个页面的权重也是不一样的,我们要的就是统计出这种相对的差距。


在计算预估流量时,我们上面是把长尾词统一当成搜索量为1,如果我们希望提升统计的准确率,可以在抓取时给关键词带上对应的搜索量(尽量在百度官方渠道获取),在统计过程中,乘以对应的搜索量,计算出来的预估流量值将更趋近于真实。


我们上面只计算了排名前10位,也就是第一页,其实第二页的排名也是有对应的点击率分布数据的,也可以抓取更多页面一起计算,毕竟一条问题被排在了第二页,也是有可能被点击的。


对于技术人员来说,抓取过程中加入rn和tn字段,肯定是更方便抓取,至于什么是rn和tn,技术人员百度一下肯定明白。


2:技术建议

对于技术人员,没有什么好建议的,毕竟自己有能力写出对应的程序来。

对于非技术人员,首先可以参考我写的第3篇文章,按照上面的方式来学习,自己也可以写出需要的程序,这套程序本身并不难,不过是一些循环和判断而已。

其次如果个人实在没有精力学习编程,而又确实很想用这种方式尝试"好物推荐",那么我个人也建议可以在市面上找第三方代做,专业的事情交给专业的人做,自己把精力放在思路上,这套程序并不难,300左右最多,超过就不要接受了。

如果找第三方代做,程序拿到手后可以使用少量的关键词测试,然后对得到的结果做验证,记得让他的代码开源。

由于我个人不是从事编程职业,所以自己写的程序只是适用于自己,真正把一个程序打包成软件出售的话要考虑太多技术之外的事情,所以个人没有帮忙代做。


3:一点想法

目前自己有其他的项目在做,对于自媒体变现暂时没有什么想法,我在写自媒体的时候也在考虑是否有合适的变现方式,对于知乎,我所了解的主要是"付费咨询"和"好物推荐",两者我都挺看好,一个是知识付费,一个是带货,大势所趋。

如果是"付费咨询",那可能我还能给一些行业的新人提供一些建议,可是我是一个理工直男,对于买东西我向来是只买需要的,不需要时不逛不看。

平时生活中其实也没有什么很了解的商品,让我给别人推荐商品,说实话我也不太会推荐,关键是我压根都没买过、没用过的东西,我也不知道怎么推荐。

所以其实本文的这个思路仅仅只是我过往经验得出来的,但是并没有真正的实践,具体实操后会是什么样的效果,我也不好说。


可以确定的是,利用"点击率分布数据"来统计排名的预估流量,这个方式绝对是科学的,这是我们做SEO时经常要做的事情,它确实能指导我们优化。

并且,我们在知乎大多时候是乱逛,没有太多目的性,而在百度搜索一个关键词,目的性是很强的,有需求,他一定是要找一个解决他需求的页面,所以围绕百度流量来开展「好物推荐」我挺看好。

如果你能认真的去推荐你擅长的领域,我相信效果并不会差,本身我们依然是在做「好物推荐」,只是我们在基础数据比较差的时候,用另一种方式避开竞争,同时挖掘还没有被满足的需求而已,这个技巧也不单单可以在初期数据基础差的时候用,在以后慢慢起量了,它依然是锦上添花的行为。


如果这套思路你觉得可以尝试,欢迎在评论下讨论。

如果这套思路你觉得有不妥的地方或者可以改进的地方,欢迎来交流。


扫描二维码推送至手机访问。

版权声明:本文由指头历程发布,如需转载请注明出处。

本文链接:https://zhitouzhuan.com/post/19.html

分享给朋友:

相关文章

知乎回答使用合集,引流利用淘客盈利

知乎回答使用合集,引流利用淘客盈利

先上回答案例:https://www.zhihu.com/question/340990864/answer/1563420700 这种图库式合集式回答,本质帮用户节省时间,其实可以安插私货平台:知乎目标人群:男性色、美女爱好者钩子:以合集...

天猫店铺主体变更教程详情一张图说明

天猫店铺主体变更教程详情一张图说明

1、不需要找人找关系,自行后台可以处理。2、不需要销售额的要求,旗舰店和专卖店都可变更3、变更有5个阶段,第四阶段会锁定店铺。...

天猫店铺主体变更申请流程是怎么样?流程详细说明

天猫店铺主体变更申请流程是怎么样?流程详细说明

天猫店铺主体变更申请流程是怎么样?申请须知:1、主体变更流程中新、老主体提交的资质请务必加盖对应公司的红章或鲜章,并且确保资质的真实有效性;2、主体变更申请需要店铺主帐号发起变更申请,店铺子账号无法提交申请,若遇系统报错,请您用天猫店铺主账...

工厂为什么不能做电商的原因?

大部分工厂制造型的企业是做不好电商的,在恒保待了三年必须承认这一点。我有时候思考为什么?在这三年中,因为重心转移从单一避孕套到现在手套的快速发展,企业制度逐步完善。反而在最初制度不完善时是最容易做出成绩?1、电商对反应速度要求高电商平台之前...

桂林医保异地住院报销

人社局0773-2827168医保局0773-5625401临桂鼎峰大厦一路0773-2670411住院结算单据 异地手工保销需要资料户口本发票清单出院记录诊断证明收款款人身份证银行卡...