-
Scala:通过谓词将Iterable分组为Iterarable Iterable
所属栏目:[安全] 日期:2020-12-16 热度:77
我有非常大的迭代器,我想分成几块.我有一个查看项目的谓词,如果它是新作品的开头,则返回true.我需要将这些碎片作为迭代器,因为即使碎片也不适合记忆.有很多部分,我会担心一个递归的解决方案吹出你的堆栈.情况类似于 this question,但我需要Iterators而不是Li[详细]
-
Scala集合中的大小和长度是否生成相同的字节代码?
所属栏目:[安全] 日期:2020-12-16 热度:136
据我所知,根据诸如 Is the best Scala convention to invoke collection.size or collection.length和 Scala Buffer: Size or Length?之类的问题,这些方法可能被视为“等同”或“同义词”,尽管不是“相同”. 但这是否意味着他们是一样的? 不要向我提供相同[详细]
-
Scala或Spring的Spring替代品?
所属栏目:[安全] 日期:2020-12-16 热度:173
我最近从 Java世界迁移到Scala,并将我们的许多项目迁移/重建为Scala.我想知道是否有类似于Spring的可用于Scala的框架(spring-security,spring-mvc,spring-data,dependency injection等).或者Spring仍然是更好的选择,所以我应该停止寻找替代品? 解决方法 没[详细]
-
处理Scala的错误:理解的未来
所属栏目:[安全] 日期:2020-12-16 热度:56
我想在我的play scala web应用程序中进行错误处理. 我的应用程序与数据库进行交谈,以获取一些行,它遵循以下流程. 首先调用db来获取一些数据 使用第一次调用中的数据从db获取其他数据 使用从最后两个db调用接收的数据形成响应. 下面是我的伪代码 def getRespo[详细]
-
Scala Futures并非并行运行
所属栏目:[安全] 日期:2020-12-16 热度:196
我有一个非常简单的Maven spring MVC项目,我添加了 Scala.我希望以下三个期货能够按预期同时执行.然而,他们一个接一个地执行 val viewName: Future[String] = for { profileSync - Future { EmployeeLocalServiceUtil.syncProfileInformation() } earningsSy[详细]
-
scala – error:预期的类或对象定义
所属栏目:[安全] 日期:2020-12-16 热度:149
我有这个(智能代码): import com.mongodb.casbah.Imports._import com.mongodb.casbah.util.bson.conversions._RegisterJodaTimeConversionHelpers() //errorobject Main { def main(args: Array[String]) { val connection = MongoConnection() }} 我收到[详细]
-
什么是Clojure相当于Scalaz Foldable的折叠图?
所属栏目:[安全] 日期:2020-12-16 热度:176
在 Scalaz trait Foldable 中,我们看到 method foldMap ,其描述如下 Map each element of the structure to a [[scalaz.Monoid]],and combine the results. def foldMap[A,B](fa: F[A])(f: A = B)(implicit F: Monoid[B]): B 你可以像这样使用它: scala Lis[详细]
-
缺少Scala ArrayBuffer中扩展函数的参数类型
所属栏目:[安全] 日期:2020-12-16 热度:150
尝试从 Scala for the impatient运行以下代码段时: val b = ArrayBuffer(1,7,2,9)val bSorted = b.sorted(_ _) 我收到以下错误: error: missing parameter type for expanded function ((x$1,x$2) = x$1.$less(x$2)) val bSorted = b.sorted(_ _) 有人可以[详细]
-
Try [Int]的Scala类型错误
所属栏目:[安全] 日期:2020-12-16 热度:98
我有类型的问题,我不明白.在下面的代码中,我有两个方法half1和half2完全相同,除了half1的返回类型是明确指定的.然而,当我在foldLeft中使用这两个方法时,会导致编译器错误.这是代码.设置val c的行有问题. package org.bodhi.reactive.`try`import scala.util.[详细]
-
scala – 优雅的AST模型
所属栏目:[安全] 日期:2020-12-16 热度:139
我正在 scala中编写一个玩具编译器.目标语言本身看起来像scala,但是实验的开放领域. 经过几次大的重构,我找不到一个很好的方法来建模我的抽象语法树.我想使用scala的模式匹配的设施,问题是树在编译过程中携带移动信息(如类型,符号). 我可以看到一些解决方案,[详细]
-
Scala Play 2,传递请求到方法
所属栏目:[安全] 日期:2020-12-16 热度:127
我有一个Play 2.0应用程序 TestController.scala def foo(p1: String) = Action {implicit request = Ok(bar(p1))}private def bar(p1: String) = {//access request parameter here} 有没有办法使用implicit来将请求传递给bar 解决方法 是的你可以: def fo[详细]
-
如何使用*非case *类从Scala反序列化JSON?
所属栏目:[安全] 日期:2020-12-16 热度:108
我正在编写一个需要从 JSON序列化和反序列化的Scala应用程序.一些JSON对象有超过22个字段,所以我不能使用case类(我也不能改变格式).我能够找到的所有Scala JSON库只能使用case类(而不是普通类)工作. 鉴于此,将大型JSON对象(具有超过22个字段)反序列化为Scala[详细]
-
scala – 如何一次导入几个隐式?
所属栏目:[安全] 日期:2020-12-16 热度:112
我的应用程序有几个隐式上下文. 喜欢 import scala.collection.JavaConversions._ import HadoopConversion._ etc 现在我必须复制粘贴每个文件的所有导入.是否可以将它们组合在一个文件中并只进行一次导入? 解决方法 默认情况下,某些库提供的一种很好的技术[详细]
-
用户界面 – 是否有用于在Scala中创建GUI的GUI?
所属栏目:[安全] 日期:2020-12-16 热度:140
有什么像 Scala的WindowBuilder吗? 解决方法 我不知道任何所见即所得的Scala的GUI构建器.但你不需要一个.其实严格来说,Scala没有GUI;它只是使用底层平台的GUI(或GUI). 因此,Scala的JVM端口使用AWT,Swing或SWT,Scala的CLI端口使用WinForms或WPF.我听说过Scal[详细]
-
scala – 这个递归列表如何平坦化?
所属栏目:[安全] 日期:2020-12-16 热度:101
在 Scala邮件列表之后的一个 this was asked and answered 凯文: Given some nested structure: List[List[...List[T]]] what’s the best (preferably type-safe) way to flatten it to a List[T] 加斯帕: A combination of implicits and default argume[详细]
-
Scala:如何理解flatMap方法的Try?
所属栏目:[安全] 日期:2020-12-16 热度:155
Success的flatMap方法是这样实现的: def flatMap[U](f: T = Try[U]): Try[U] = try f(value) catch { case NonFatal(e) = Failure(e) } 我很明白这个方法正在做什么,这有助于我们避免编写大量的代码. 但是在什么意义上它与普通的flatMap相似? 普通的平面图[详细]
-
scala – Spark数据帧写入方法编写许多小文件
所属栏目:[安全] 日期:2020-12-16 热度:140
我有一个相当简单的工作将日志文件转换为镶木地板.它正在处理1.1TB的数据(分为64MB – 128MB文件 – 我们的块大小为128MB),大约有12000个文件. 工作如下: val events = spark.sparkContext .textFile(s"$stream/$sourcetype") .map(_.split(" || ").toL[详细]
-
scala – 如何在`Option [Map [String,String]]`上运行`.get(“k
所属栏目:[安全] 日期:2020-12-16 热度:50
当我像这样创建一个Option [Map [String,String]]时 scala val x = Some(Map("foo" - "bar"))x: Some[scala.collection.immutable.Map[String,String]] = Some(Map(foo - bar)) 为什么这个电话有效: scala x.get("foo")res0: String = bar 由于x是实例Optio[详细]
-
scala – 在X /未解析(传递)依赖项中找不到新的sbt“feature”配
所属栏目:[安全] 日期:2020-12-16 热度:53
sbt中一个相当新的“特征”,可能是0.13.7或0.13.8,是一种非常烦人的行为,不再能找到传递依赖. 例如.我有一个项目A依赖于库B版本1.25.1,它依赖于库C版本1.13.1.当然,只有库依赖关系B在A中定义,因为我不想定义几十个子库的整个树.好的,这构建. 现在我将A中的依[详细]
-
scala – spray-json错误:找不到参数um的隐式值
所属栏目:[安全] 日期:2020-12-16 热度:184
我有这个案例类 case class Person(val name: String)object JsonImplicits extends DefaultJsonProtocol { implicit val impPerson = jsonFormat1(Person)} 我正在尝试spray-json以解析发布请求: post { entity(as[Person]) { person = complete(person) }[详细]
-
scala – Spark – 一次通过RDD上的多个过滤器
所属栏目:[安全] 日期:2020-12-16 热度:167
我有一个RDD的Map [String,String];有没有办法多次调用过滤它而不经过RDD多次? 例如,我想做这样的事情: val stateNY = mapRDD.filter(person = person("state").equals("NY"))val stateOR = mapRDD.filter(person = person("state").equals("OR"))val stat[详细]
-
scala – 使用特征,不一致的编译器行为实现抽象方法?
所属栏目:[安全] 日期:2020-12-16 热度:74
我有一个来自 Java库的基类,其代码我无法修改.这个类(A)有一个空方法(b),它应该被声明为abstract: class A { def b { }} 我在Scala中扩展此类并重写该方法以使其成为抽象: abstract class AA extends A { override def b} 现在我在一个特征中实现这个方法[详细]
-
如何在Scala中为泛型类型提供默认类型类?
所属栏目:[安全] 日期:2020-12-16 热度:151
在 Scala中,如果你创建一个类型类,比如代数结构Monoid [T],你可以为不同类型的monoid提供许多默认的类型类实现. 假设一个monoid定义为: trait Monoid[T] { def op(x: T,y: T): T def id: T} 由于串联操作下的字符串形成一个monoid,我们可以像这样为字符串提[详细]
-
Slick/Scala:什么是Rep [Bind],如何将其变成值?
所属栏目:[安全] 日期:2020-12-16 热度:127
我试图弄清楚Slick( Scala功能关系模型).我已经开始在Slick 3.0.0中构建原型,但当然……大多数文档都已过时或不完整. 我已经设法达到了可以创建模式并从数据库返回对象的程度. 问题是,我要回的是“Rep [Bind]”而不是我希望得到的对象.我无法弄清楚这个值是[详细]
-
scala – java.lang.ClassNotFoundException,当我使用“spark-su
所属栏目:[安全] 日期:2020-12-16 热度:80
我用 scala编写了一个spark程序,但是当我使用“spark-submit”提交我的项目时,我遇到了 java.lang.ClassNotFoundException. 我的.sbt文件: name:="Spark Project"version:="1.0"scalaVersion:="2.10.5"libraryDependencies+="org.apache.spark" %% "spark-c[详细]