A. lai79这个网站有什么特色
Lai79搜索是一个很实用的聚合搜索引擎,功能很强大。在这个搜索引擎聚合站点中,可伏团中以选择使用百缺山度、谷歌、雅虎、有道、搜狗等主流的搜索引擎。好多时候,我们会因为选择使用网络还是谷歌搜索答案犯难。网络可能结果多一些,但谷歌更精确。幸运的是,今后我们无需为使用哪个搜索引擎犯难了,输入一次我们需要查找的关键词,lai79帮我们把几大搜索引擎的结果页面都找或友出来了。因为每个搜索引擎对于网页的收录偏好不同,所以利用这个聚合平台就会查找出更加全面准确的结果。在这里,各搜索引擎结果页面可随意切换,用起来非常方便。而且这个网站几乎囊括了新闻、图片、音乐、视频、论坛、it、汽车、下载等所有频道。
举一个生活中类似的例子。每个饭馆都有自己的拿手菜,但即使最大的饭店也不可能保证做到最全、最好。假如有一个叫“快全”的俱乐部,她可以随时拿到几乎所以饭店的拿手菜(我们暂且不讨论是如何快速实现的),我想你肯定会选择在这里吃饭。今天,lai79就是为了更快、更全面的满足网民的需求而诞生的。
lai79网址导航是一个纯手工收录网址的站点。首先做到了安全无毒,绝对可以放心使用。无广告,新站收录快是一大特色。当然,更加重要的是因为有一个年轻的团队在用心服务。他们的目的是不断实现自己的创新理念,实用、快捷、高效
B. 分布式搜索引擎elasticsearch的架构原理
分布式搜索引擎:把大量的索引数据拆散成多块,每台机器放一部分,然 后利用多台机器对分散之后的数据进行搜索,所有操作全部是分布在多台机器上进行,形成了 完整的分布式的架构。
近实时,有两层意思:
集群包含多个节点,每个节点属于哪个集群都是通数旦桥过一个配置来决定的,
Node 是集群中的一个节点,节点也有一个名称,默认是随机分配的。默认节点会去加入一个名 称为 elasticsearch 的集群。如果直接启动一堆节点,那么它们会自动组成一个elasticsearch 集群,当然一个节点也可以组成 elasticsearch 集群。
文档是 es 中最小的数据单元,一个 document 可以是1条客户数据、1条商品分类数据、1条 订单数据,通常用json 数据结构来表示。每个 index 下的 type,都可以存储多条 document。
1个 document 里面有多个 field,每个 field 就是1个数据字段。
es 集群多个节点,会自动选举1个节点为 master 节点,这个 master 节点其实就是干一些管理 的工作的,比如维护索引元数据、负责切换 primary shard 和 replica shard 身份等。要是 master 节点宕机了,那么会重新选举1个节点为 master 节点。 如果是非 master节点宕薯猛机了,那么会由 master 节点,让那个宕机节点上的 primary shard 的身 份转移到其他机器上的 replica shard。接着你要是修复了那个宕机机器,重启了之后,master 节点会控制将缺失的 replica shard 分配过去,同步后续修改的数据之类的,让集群恢复正常。 说得更简单1点,就是说如果某个非 master 节点宕机了,那么此节点上的 primary shard 不就 没了。那好迟租,master 会让 primary shard 对应的 replica shard(在其他机器上)切换为 primary shard。如果宕机的机器修复了,修复后的节点也不再是 primary shard,而是 replica shard。
索引可以拆分成多个 shard ,每个 shard 存储部分数据。拆分多个 shard是有好处的,一是支持横向扩展,比如你数据量是 3T,3 个 shard,每个 shard 就 1T 的数据, 若现在数据量增加到 4T,怎么扩展,很简单,重新建1个有 4 个 shard 的索引,将数据导进 去;二是提高性能,数据分布在多个 shard,即多台服务器上,所有的操作,都会在多台机器 上并行分布式执行,提高了吞吐量和性能。 接着就是这个 shard 的数据实际是有多个备份,就是说每个 shard 都有1个 primary shard ,负责写入数据,但是还有多个 replica shard 。 primary shard 写入数据之后, 会将数据同步到其他几个 replica shard上去。
通过这个 replica 的方案,每个 shard 的数据都有多个备份,如果某个机器宕机了,没关系啊, 还有别的数据副本在别的机器上,这样子就高可用了。
总结:分布式就是两点,1.通过shard切片实现横向扩展;2.通过replica副本机制,实现高可用
基本概念
写数据过程:客户端通过hash选择一个node发送请求,这个node被称做coordinating node(协调节点),协调节点对docmount进行路由,将请求转发给到对应的primary shard,primary shard 处理请求,将数据同步到所有的replica shard,此时协调节点,发现primary shard 和所有的replica shard都处理完之后,就反馈给客户端。
客户端发送get请求到任意一个node节点,然后这个节点就称为协调节点,协调节点对document进行路由,将请求转发到对应的node,此时会使用随机轮询算法,在primary shard 和replica shard中随机选择一个,让读取请求负载均衡,接收请求的node返回document给协调节点,协调节点,返回document给到客户端
es最强大的是做全文检索,就是比如你有三条数据
1.java真好玩儿啊
2.java好难学啊
3.j2ee特别牛
你根据java关键词来搜索,将包含java的document给搜索出来。
更新/删除数据过程,首先还是write、merge操作,然后flush过程中:
1、write过程和上面的一致;
2、refresh过程有点区别
所谓的倒排索引,就是把你的数据内容先分词,每句话分成一个一个的关键词,然后记录好每一个关键词对应出现在了哪些 id 标识的数据。
然后你可以从其他地根据这个 id 找到对应的数据就可以了,这个就是倒排索引的数据格式 以及搜索的方式,这种利倒排索引查找数据的式,也被称之为全文检索。
Inverted Index就是我们常见的倒排索引, 主要包括两部分:
一个有序的数据字典 Dictionary(包括单词 Term 和它出现的频率)。
与单词 Term 对应的 Postings(即存在这个单词的文件)
当我们搜索的时候,首先将搜索的内容分解,然后在字典里找到对应 Term,从而查找到与搜索相关的文件内容。
本质上,Stored Fields 是一个简单的键值对 key-value。默认情况下,Stored Fields是为false的,ElasticSearch 会存储整个文件的 JSON source。
哪些情形下需要显式的指定store属性呢?大多数情况并不是必须的。从_source中获取值是快速而且高效的。如果你的文档长度很长,存储 _source或者从_source中获取field的代价很大,你可以显式的将某些field的store属性设置为yes。缺点如上边所说:假设你存 储了10个field,而如果想获取这10个field的值,则需要多次的io,如果从Stored Field 中获取则只需要一次,而且_source是被压缩过 的。
这个时候你可以指定一些字段store为true,这意味着这个field的数据将会被单独存储(实际上是存两份,source和 Stored Field都存了一份)。这时候,如果你要求返回field1(store:yes),es会分辨出field1已经被存储了,因此不会从_source中加载,而是从field1的存储块中加载。
Doc_values 本质上是一个序列化的 列式存储,这个结构非常适用于聚合(aggregations)、排序(Sorting)、脚本(scripts access to field)等操作。而且,这种存储方式也非常便于压缩,特别是数字类型。这样可以减少磁盘空间并且提高访问速度,ElasticSearch 可以将索引下某一个 Document Value 全部读取到内存中进行操作.
Doc_values是存在磁盘的
在es中text类型字段默认只会建立倒排索引,其它几种类型在建立倒排索引的时候还会建立正排索引,当然es是支持自定义的。在这里这个正排索引其实就是Doc Value。
即上文所描述的动态索引
往 es 写的数据,实际上都写到磁盘文件里去了,查询的时候,操作系统会将磁盘文件里的数据自动缓存到 filesystem cache 中去。
es 的搜索引擎严重依赖于底层的 filesystem cache ,你如果给 filesystem cache 更多的 内存,尽量让内存可以容纳所有的 idx segment file 索引数据文件,那么你搜索的时候就 基本都是走内存的,性能会非常高。 性能差距究竟可以有多大?我们之前很多的测试和压测,如果走磁盘一般肯定上秒,搜索性能 绝对是秒级别的,1秒、5秒、10秒。但如果是走 filesystem cache ,是走纯内存的,那么一 般来说性能比走磁盘要高一个数量级,基本上就是毫秒级的,从几毫秒到几百毫秒不等。
那如何才能节约filesystem cache这部分的空间呢?
当写数据到ES时就要考虑到最小化数据,当一行数据有30几个字段,并不需要把所有的数据都写入到ES,只需要把关键的需要检索的几列写入。这样能够缓存的数据就会越多。 所以需要控制每台机器写入的数据最好小于等于或者略大于filesystem cache空间最好。 如果要搜索海量数据,可以考虑用ES+Hbase架构。用Hbase存储海量数据,然后ES搜索出doc id后,再去Hbase中根据doc id查询指定的行数据。
当每台机器写入的数据大于cache os太多时,导致太多的数据无法放入缓存,那么就可以把一部分热点数据刷入缓存中。
对于那些你觉得比较热的、经常会有人访问的数据,最好做个专门的缓存预热系统,就是 对热数据每隔一段时间,就提前访问一下,让数据进入 filesystem cache 里去。这样下 次别人访问的时候,性能肯定会好很多。
把热数据和冷数据分开,写入不同的索引里,然后确保把热索引数据刷到cache里。
在ES里最好不要用复杂的关联表的操作。当需要这样的场景时,可以在创建索引的时候,就把数据关联好。比如在mysql中需要根据关联ID查询两张表的关联数据:select A.name ,B.age from A join B where A.id = B.id,在写入ES时直接去把相关联数据放到一个document就好。
es 的分页是较坑的,为啥呢?举个例子吧,假如你每页是 10 条数据,你现在要查询第 100 页,实际上是会把每个 shard 上存储的前 1000 条数据都查到1个协调节点上,如果你有个 5 个 shard,那么就有 5000 条数据,接着协调节点对这 5000 条数据进行一些合并、处理,再获取到 最终第 100 页的 10 条数据。
分布式的,你要查第 100 页的 10 条数据,不可能说从 5 个 shard,每个 shard 就查 2 条数据, 最后到协调节点合并成 10 条数据吧?你必须得从每个 shard 都查 1000 条数据过来,然后根据 你的需求进行排序、筛选等等操作,最后再次分页,拿到里面第 100 页的数据。你翻页的时 候,翻的越深,每个 shard 返回的数据就越多,而且协调节点处理的时间越长,非常坑爹。所 以用 es 做分页的时候,你会发现越翻到后面,就越是慢。
我们之前也是遇到过这个问题,用 es 作分页,前几页就几十毫秒,翻到 10 页或者几十页的时 候,基本上就要 5~10 秒才能查出来一页数据了。
解决方案吗?
1)不允许深度分页:跟产品经理说,你系统不允许翻那么深的页,默认翻的越深,性能就越差;
2)在APP或者公众号里,通过下拉来实现分页,即下拉时获取到最新页,可以通过scroll api来实现;
scroll 会1次性给你生成所有数据的1个快照,然后每次滑动向后翻页就是通过游标 scroll_id 移动获取下一页,性能会比上面说的那种分页性能要高很多很 多,基本上都是毫秒级的。 但是,唯1的缺点就是,这个适合于那种类似微博下拉翻页的,不能随意跳到任何一页的场 景。也就是说,你不能先进到第 10 页,然后去第 120 页,然后再回到第 58 页,不能随意乱跳 页。所以现在很多APP产品,都是不允许你随意翻页的,也有一些网站,做的就是你只能往 下拉,一页一页的翻。
初始化时必须指定 scroll 参数,告诉 es 要保存此次搜索的上下文多长时间。你需要确保用户不会持续不断翻页翻几个小时,否则可能因为超时而失败。
除了用 scroll api ,也可以用 search_after 来做, search_after 的思想是使用前一页的结果来帮助检索下一页的数据,显然,这种方式也不允许你随意翻页,你只能一页一页往后 翻。初始化时,需要使用一个唯1值的字段作为 sort 字段。
C. 请高手帮我 写一段批处理脚本,能在某一个网页批量输入关键词,批量搜索。我只有20分。谢谢了。
这个问题比较复杂,首先,搜索引擎分为多种,3721网络实名,网络,GOOGLE,要看你在哪里搜索,而关键词么,和你网页的中文实名有关,一般来说,好的关键词都被人花钱注册了,如果你不花钱注册的话,就算能搜索到,排名也是比较靠后滴
D. 开源搜索的20款开源搜索引擎系统
一些开源搜索引擎系统介绍,包含开源Web搜索引擎和开源桌面搜索引擎。
Sphider
Sphider是一个轻量级,采用PHP开发的web spider和搜索引擎,使用mysql来存储数据。可以利用它来为自己的网站添加搜索功能。Sphider非常小,易于安装和修改,已经有数千网站在使用它。
RiSearch PHP
RiSearch PHP是一个高效,功能强大的搜索引擎,特别适用于中小型网站。RiSearch PHP非常快,它能够在不到1秒钟内搜索5000-10000个页面。RiSearch是一个索引搜索引擎,这就意味毕模宽着它先将你的网站做索引并建立一个数据库来存储你网站所有页面的关键词以便快速搜索。Risearch是全文搜索引擎脚本,它把所有的关键词都编成一个文档索引除了配置文件里面的定义排除的关键词。 RiSearch使用经典的反向索引算法(与大型的搜索引擎相同),这就是为什么它会比其它搜索引擎快的原因。
PhpDig
PhpDig是一个采用PHP开发的Web爬虫和搜索引擎。通过对动态和静态页面进行索引建立一个词汇表。当搜索查询时,它将按一定的排序规则手亮显示包含关键字的搜索结果页面。PhpDig包含一个模板系统并能够索引PDF,Word,Excel,和PowerPoint文档。PHPdig适用于专业化更强、层次更深的个性化搜索引擎,利用它打造针对某一领域的垂直搜索引擎是最好的选择。
OpenWebSpider
OpenWebSpider是一个开源多线程Web Spider(robot:机器人,crawler:爬虫)和包含许多有趣功能的搜索引擎。
Egothor
Egothor是一个用Java编写的开源而高效的全文本搜索引擎。借助Java的跨平台特性,Egothor能应用于任何环境的应用,既可配置为单独的搜索引擎,又能用于你的应用作为全文检索之用。
Nutch
Nutch 是一个开源Java 实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬虫。
Lucene
Apache Lucene是一个基于Java全文搜索引擎,利用它可以轻易地为Java软件加入全文搜寻功能。Lucene的最主要工作是替文件的每一个字作索引,索引让搜寻的效率比传统的逐字比较大大提高,Lucen提供一组解读,过滤,分析文件,编排和使用索引的API,它的强大之处除了高效和简单外,是最重要的是使使用者可以随时应自己需要自订其功能。
Oxyus
是一个纯java写的web搜索引擎。
BDDBot
BDDBot是一个简单的易于理解和使用的搜索引擎。它目前在一个文本文件(urls.txt)列出的URL中爬行,将结果保存在一个数据库中。它也支持一个简单的Web服务器,这个服务器接受来自浏览器的查询并返回响应结果。它码笑可以方便地集成到你的Web站点中。
Zilverline
Zilverline是一个搜索引擎,它通过web方式搜索本地硬盘或intranet上的内容。Zilverline可以从PDF, Word, Excel, Powerpoint, RTF, txt, java, CHM,zip, rar等文档中抓取它们的内容来建立摘要和索引。从本地硬盘或intranet中查找到的结果可重新再进行检索。Zilverline支持多种语言其中包括中文。
XQEngine
XQEngine用于XML文档的全文本搜索引擎。利用XQuery做为它的前端查询语言。它能够让你查询XML文档集合通过使用关键字的逻辑组合。有点类似于Google与其它搜索引擎搜索HTML文档一样。XQEngine只是一个用Java开发的很紧凑的可嵌入的组件。
MG4J
MG4J可以让你为大量的文档集合构建一个被压缩的全文本索引,通过使内插编码(interpolative coding)技术。
JXTA Search
JXTA Search是一个分布式的搜索系统。设计用在点对点的网络与网站上。
YaCy
YaCy基于p2p的分布式Web搜索引擎。同时也是一个Http缓存代理服务器。这个项目是构建基于p2p Web索引网络的一个新方法。它可以搜索你自己的或全局的索引,也可以Crawl自己的网页或启动分布式Crawling等。
Red-Piranha
Red-Piranha是一个开源搜索系统,它能够真正”学习”你所要查找的是什么。Red-Piranha可作为你桌面系统(Windows,Linux与Mac)的个人搜索引擎,或企业内部网搜索引擎,或为你的网站提供搜索功能,或作为一个P2P搜索引擎,或与wiki结合作为一个知识/文档管理解决方案,或搜索你要的RSS聚合信息,或搜索你公司的系统(包括SAP,Oracle或其它任何Database/Data source),或用于管理PDF,Word和其它文档,或作为一个提供搜索信息的WebService或为你的应用程序(Web,Swing,SWT,Flash,Mozilla-XUL,PHP, Perl或c#/.Net)提供搜索后台等等。
LIUS
LIUS是一个基于Jakarta Lucene项目的索引框架。LIUS为Lucene添加了对许多文件格式的进行索引功能如:Ms Word,Ms Excel,Ms PowerPoint,RTF,PDF,XML,HTML,TXT,Open Office序列和JavaBeans.针对JavaBeans的索引特别有用当我们要对数据库进行索引或刚好用户使用持久层ORM技术如:Hibernate,JDO,Torque,TopLink进行开发时。
Apache Solr
Solr是一个高性能,采用Java5开发,基于Lucene的全文搜索服务器。文档通过Http利用XML加到一个搜索集合中。查询该集合也是通过 http收到一个XML/JSON响应来实现。它的主要特性包括:高效、灵活的缓存功能,垂直搜索功能,高亮显示搜索结果,通过索引复制来提高可用性,提供一套强大Data Schema来定义字段,类型和设置文本分析,提供基于Web的管理界面等。
Paoding
Paoding中文分词是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。 Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首选的中文分词开源组件。 Paoding中文分词追求分词的高效率和用户良好体验。
Carrot2
Carrot2是一个开源搜索结果分类引擎。它能够自动把搜索结果组织成一些专题分类。Carrot2提供的一个架构能够从各种搜索引擎(YahooAPI、GoogleAPI、MSN Search API、eTools Meta Search、Alexa Web Search、PubMed、OpenSearch、Lucene index、SOLR)获取搜索结果。
Regain
regain是一款与Web搜索引擎类似的桌面搜索引擎系统,其不同之处在于regain不是对Internet内容的搜索,而是针对自己的文档或文件的搜索,使用regain可以轻松地在几秒内完成大量数据(许多个G)的搜索。Regain采用了Lucene的搜索语法,因此支持多种查询方式,支持多索引的搜索及基于文件类型的高级搜索,并且能实现URL重写及文件到HTTP的桥接,并且对中文也提供了较好的支持。
Regain提供了两种版本:桌面搜索及服务器搜索。桌面搜索提供了对普通桌面计算机的文档与局域网环境下的网页的快速搜索。服务器版本主要安装在Web服务器上,为网站及局域网环境下的文件服务器进行搜索。
E. 如何用 Node.js 和 Elasticsearch 构建搜索引擎
安装 Elasticsearch
Elasticsearch 受Apache 2许可证保护,可以被下载,使用,免费修改。安装Elasticsearch 之前你需要先确保在你的电脑上安装了Java Runtime Environment (JRE) ,Elasticsearch 是使用java实现的并且依赖java库运行。你可以使用下面的命令行来检测你是否安装了java
推荐使用java最新的稳定版本(写这篇文章的时候是1.8)。你可以在找到在你系统上安装java的指导手册。
接下来是下载最新版本的Elasticsearch (写这篇文章的时候是2.3.5),去下载ZIP 文件。Elasticsearch 不需要安装,一个zip文件就包含了可在所有支持的系统上运行的文件。解压下载的文件,就完成了。有几种其他的方式运行Elasticsearch ,比如:获得TAR 文件或者为不同Linux发行版本的包。
如果你使用的是Mac操作系统并且安装了,你就可以使用这行命令安装Elasticsearch brew install elasticsearch.Homebrew 会自动添加executables 到你的系统并且安装所需的服务。它也可以使用一行命令帮你更新应用:brew upgrade elasticsearch.
想在Windows上运行Elasticsearch ,可以在解压的文件夹里,通过命令行运行binelasticsearch.bat 。对于其他系统,可以从终端运行 ./bin/elasticsearch.这时候,Elasticsearch 就应该可以在你的系统上运行了。
就像我之前提到的,你可以使用Elasticsearch的几乎所有的操作,都可以通过RESTful APIs完成。Elasticsearch 默认使用9200 端口。为了确保你正确的运行了Elasticsearch。在你的浏览器中打开http://localhost:9200/ ,将会显示一些关于你运行的实例的基本信息。
图形用户界面
Elasticsearch不须图形用户界面,只通过REST APIs就提供了几乎所有的功能。然而如果我不介绍怎么通过APIs和 Node.js执行所有所需的操作,你可以通过几个提供了索引和数据的可视化信息GUI工具来完成,这些工具甚至含有一些高水平的分析。
, 是同一家公司开发的工具, 它提供了数据的实时概要,并提供了一些可视化定制和分析选项。Kibana 是免费的。
还有一些是社区开发的工具,如,, 甚至谷歌浏览器的扩展组件.这些工具可以帮你在浏览器中查看你的索引和数据,甚至可以试运行不同的搜索和汇总查询。所有这些工具提供了安装和使用的攻略。
创建一个Node.js环境
弹性搜索为Node.js提供一睁信个官方模块,称为elasticsearch。首先,你需要添加模块到你的工程目录下,并且保存依赖以备以后使用。
然后,你可以在脚本里导入模块,如下所示:
最终,你需要创建客户端来处理与弹性搜索的通讯。在这种情况下,我假设你正在运行弹性搜索的本地机器IP地址是127.0.0.1,端口是9200(默认设置)。
注意:这篇导读的所有源代码都可以在GitHub下载查看。最简单的查看方式是在你的PC机上克隆仓库,并且从那里运行示例代码:
获取短语推荐的时候,采用与上文相同的格式并替换推荐器的类型字段即可。如下的例子中,返回数据将与上例格式相同。
F. 怎么像百度,搜狗一样做一个搜索引擎
做一个搜素引擎牵扯的东西太多了,一人无法完成,需要一个强大的技术团队支持。
当下好多搜素引擎,多半是聚合搜素,就是利用技术,将网络、搜狗、360、必应等搜索引擎的搜索结果展现在一起。
做一个搜索引擎有点困难,但首凯雹是做聚合搜索还是有戏的,你可以了解一下。
网络发展这么久在中国是已经超过谷歌了,谷歌搜索很强大,但是有者帆利有弊吧,利就是搜索能力很强大,弊就是搜索范围太广泛会涉及一些不好的内容板块。
好的搜索引擎,就是用户可以通过检索相关关键词来孙耐获取解决问题的方式方法。
G. 有哪些很强的聚合搜索引擎
1、Instya搜索引擎。
Instya允许一键搜索多个网站,这些网站包括搜索引擎结果,答案网站,购物网站等。Instya在一个地方提供所有结果,可以获得更全面和相关的查询结果。
2、WebCrawler搜索引擎。
WebCrawler是InfoSpace,LLC提供的搜索引擎聚合服务。它显示来自Google和Yahoo搜索引擎绝老的搜索结果。使用Metasearch引擎,可以搜索Web,图像,视频和新闻。它还会在主页上显示特色搜索,以帮助入门。
3、Info搜索引擎。
Info搜索网络提供来自各种搜索引擎的搜索结果,例如Google,Yahoo,Ask,OpenDirectory,Yandex,Bing等。它允许体验最佳的网络,并获得更多相关结果。可以搜索网络,主题,商店,工作,图像,新闻,视频等。
4、Ixquick搜索引擎。
Ixquick是一个尊重隐私的元搜索引擎,它调用google搜索引擎的结果,而不收集任何私人信息。可以使用此服务搜索网络,图像和视频,高级搜索可用,提供更详细的结果。
5、Dogpile搜索引擎。
Dogpile允许获取由各种大牌搜索引擎提供的搜索结果。该服务由InfoSpace,LLC提供。使用此服务,可以搜索Web,图像,视频,新闻和白乱李页,Fetches展示最受欢迎的搜索。
6、Mamma搜索引擎。
Mamma是EmpresarioInc.提供的搜索聚合服务,允许搜索网络,新闻,图像,本地内容和推荐文章,它使用位置信息为查询提供更好的本地搜索结果。
7、Scou搜索引擎。
Scour提供从各哗宏迟种搜索引擎收集的网络,图像,视频,本地和商业搜索结果,Scour.com成立于2007年,由Internext媒体运营,该服务的主要任务是为网络搜索提供最有效和最相关的结果。
H. 如何聚合多个搜索引擎的结果
用chrome的右橡毁唯键搜插件。有自定义搜索串梁培和组合功能,可把多个搜索串放到一个组合里。
把关键词输入插件的搜索框,点组合名称,随后弹出的多个标签页就是各个网站的搜索结果。
但有些余物网站的搜索串不好提取
I. 现在的聚合搜索引擎比较强大的除了易友轩的soulord,还有雨林木风的115,还有比较好用的吗
115助手是由雨林木风推出的一款绿色免费的轻量级电脑应用和网络辅助软件,它聚集了多种计算机操作的日常实用个人必备功能(如程序快速启动、日程记事、闹铃、截屏、定时关机等),并与115.com多样化的个性网络服务(如115聚合搜索引擎入口、天气预报查询、邮箱入口、收藏夹等)紧密结合,界面清新实用,操作简易,设计人性智能,能大幅减少重复操作,更难能可贵的是系统资源占用极少。115助手,上网的真正好助手,您的fastStart!
115助手目前已实现八大功能:
1、115聚合搜索入口
只要您在助手顶部的搜索框里输入关键词,轻松点击,直达115聚合搜索结果,方便快捷;
2、丰富多彩的互联网应用工具
邮箱便捷登陆入口,114la酷站大全,快速充值入口,股票查询,实用查询工具集……还将不断加入新元素!外网IP显示,IP归属地等功能均已本地化;
3、程序快速启动
支持把常用软件的快捷方式简单拖曳到程序主窗口,清爽,让您不在杂乱繁多的桌面程序图标中眼花缭乱;
4、备忘枝郑日程设置与提醒
日历/日程记事安排功能,您可方便定制日程安排提醒,避免错过重要事务,支持提前提醒和重复提醒,并有详细的国内外节日显示与各式万年历,弥补Windows日期显示缺憾,把农历搬回家;
5、闹铃时钟,多重提醒
多种时钟样式,自动网络对时。自定义铃声下能实用一个或多个闹钟实现多重提醒猛腊颂;
6、天气定制,出行必须
为您提供准确详细的气象服务。您可以按所在城市独立定制天气预报,据此安排旅游出行,假期好帮手;
7、网络美图,一键享受
可方便地帮助您即时截取任意窗口显示内容。操作过程一键搞定;
8、定时关机,定时休眠
能设置定时休眠与定时关机,支持关机前提前提醒,电脑工作,您休息。
115网盘
1.什么是115网络U盘?↑返回顶部
115网络U盘是广东雨林木风计算机科技有限公司(以下简称:雨林木风)最新推出具有存储容量大、高速、稳定、安全等特点的网络免费存储服务。通过网络,您可以体验到她强大的网络数据存储和共享功能;您可以快速方便地将自已的照片、DV、影视、音乐、游戏、文档等各种格式的电子文件和数据共享给朋友们,让他们一起分享您的心情。我们合理的文档、相册、音乐专辑等专项分类存储,局野也能给您带来极大的方便。 (点击了解更多 )
2.115网络U盘提供的服务有哪些?↑返回顶部
注册用户目前制定的可使用空间大小为5G(含永久空间1G,临时空间4G),单个文件目前限传大小为400M(支持断点续传的大文件上传数日后推出)。
匿名用户上传空间无限,有效期限为7日,单个文件目前限传大为100M。
*请注意:注册用户目前拥有1G永久空间,匿名空间和临时空间文件自上传7日后,若无注册登录到临时空间管理中心续期,系统将自动将其删除。
*请注意:以上为115网络U盘测试期试行规则。正式版将在各方面测试完善后上线,我们承诺正式版方案运营后,将提供给用户更优质的在线存储服务;同时会保留测试版期间会员数据及上传数据,请您放心使用。