1

我一直在使用将 dll(嵌入式资源)嵌入到 exe 中的技术,并使用以下代码在运行时解析未知的 dll。

AppDomain.CurrentDomain.AssemblyResolve += (sender, args) =>
{
    String resourceName = "Project.lib." + new AssemblyName(args.Name).Name + ".dll";

    using (var stream = Assembly.GetExecutingAssembly().GetManifestResourceStream(resourceName))
    {
        Byte[] assemblyData = new Byte[stream.Length];
        stream.Read(assemblyData, 0, assemblyData.Length);
        return Assembly.Load(assemblyData);
    }
};

但是,当我嵌入 Spark View Engine dll(例如)时,它会倒下。但仅限于一个特定的地方。Spark 本身动态地生成类。然后这些类引用 Spark(using Spark等)。正是在这一点上,我收到以下错误。

“Spark.Class”类型是在未引用的程序集中定义的。您必须添加对程序集“Spark”的引用

我很确定这与 Spark 视图引擎无关,而是与从动态生成的类中引用嵌入式程序集有关。

更新:堆栈跟踪

运行项目任务消息时发生异常:Spark.Compiler.BatchCompilerException:动态视图编译失败。c:\Users\Adam\AppData\Local\Temp\kdsjyhvu.0.cs(6,14):错误 CS0012:类型“Spark.AbstractSparkView”在未引用的程序集中定义。您必须在 Spark.Compiler.BatchCompiler.Compile(Boolean debug, String languageOrExtension, String[] sourceCode) at Spark.Compiler.CSharp 添加对程序集“Spark, Version=1.5.0.0, Culture=neutral, PublicKeyToken=7f8549eed921a12c”的引用.CSharpViewCompiler.CompileView(IEnumerable1 viewTemplates, IEnumerable1 allResources) at Spark.SparkViewEngine.CreateEntryInternal(SparkViewDescriptor descriptor, Boolean compile) at Spark.SparkViewEngine.CreateEntry(SparkViewDescriptor descriptor) at Spark.SparkViewEngine.CreateInstance(SparkViewDescriptor descriptor) at ProjectTasks.Core.Templater.Populate(String templateFilePath, Object data ) 在 \ProjectTasks\Core\Templater.cs: 第 33 行在 ProjectTasks..Core.EmailTemplates.RenderImpl(String name, Object data) 在 \ProjectTasks\Core\EmailTemplates.cs: 第 19 行在 ProjectTasks.Tasks.EmailUsersWithIncompleteModules.Run( ) 在 \ProjectTasks\Tasks\EmailUsersWithIncompleteModules.cs: 第 41 行在 ProjectTasks.MaintenanceTaskRunner.Run(Boolean runNow, IMaintenanceTask[] tasks) 在 \ProjectTasks\MaintenanceTaskRunner.cs: 在 ProjectTasks.Initialiser 的第 25 行。\ProjectTasks\Initialiser.cs 中的初始化(字符串 [] 参数):第 30 行

如果确实有一个决议,任何人都对决议有任何想法吗?

4

3 回答 3

2

我猜 Spark 使用 CodeDom 进行动态代码生成。CSharpCodeProvider 内部生成源代码并运行 csc.exe 以获取新类型。由于 csc.exe 需要物理文件作为参考,因此在这种情况下,AssemblyResolve 技巧将无济于事。

于 2011-06-12T10:21:47.373 回答
1

堆栈跟踪强烈表明 Spark 正在使用 System.CodeDom 动态生成程序集。这要求引用程序集是磁盘上的文件,C# 编译器在进程外运行。这通常不是问题,因为 Spark.dll 与 EXE 位于同一目录中。

你无法完成这项工作。

Fwiw:这种技术非常浪费系统资源。您将装配体所需的内存量增加一倍。它也是一种昂贵的内存,它不能在进程之间共享,并且由分页文件而不是汇编文件支持。你也可以给自己买一些严重的类型识别麻烦。.NET 已经支持在单个文件中部署。它被称为 setup.exe

于 2011-06-12T12:58:09.450 回答
0

正如其他人所说,问题在于 CodeDom 在磁盘上生成工件,随后需要访问这些工件以呈现视图。

除了嵌入 Spark 是一个潜在的内存消耗这一事实之外,我相信这个问题有一个潜在的解决方案。鉴于问题是由动态生成的动态视图引起的,为什么不利用Spark 的批处理编译选项为您的视图生成 dll 作为构建的一部分。

您可以使用类似于以下的代码来实现此目的:

var factory = new SparkViewFactory(settings)
               {
                   ViewFolder = new FileSystemViewFolder(viewsLocation)
               };

// And generate all of the known view/master templates into the target assembly
var batch = new SparkBatchDescriptor(targetPath);

factory.Precompile(batch);

最后,您应该有一个包含已编译视图的输出 dll,然后您可以像嵌入主 Spark.dll 一样嵌入该 dll。

希望对
罗布有所帮助

于 2011-06-13T17:53:44.457 回答