展览
超越界限:后人类世时代的女权主义宣言
7月01日周六
|网上研讨会
参加我们的实践工作坊,在人类和人工智能的参与下,深入研究女权主义宣言的制作。创建的宣言将在 EVA 伦敦 2023 及其相关艺术展上以数字和实物形式展示。
時間和地點
2023年7月01日 GMT-4 11:50 – 2023年7月13日 GMT-4 01:30
网上研讨会
賓客
關於本活動
讨会简述:这个实践研讨会为参与者提供了一个双重方法来制作女性主义宣言,一方面涉及身体/心智,另一方面涉及人工智能作为一种艺术形式,允许对无人辅助和技术辅助智能的危险和可能性进行批判。在研讨会上创作的宣言将以数字和实体格式发表和展示在备受推崇的学术会议EVA London 2023及其相关艺术展览上。
介绍
宣言是历史上支持变革和阐明新颖概念的有效机制,构成了我们研讨会的基础。这种互动环境邀请与会者探索前所未有的景观,其中人工智能和人类智慧密不可分。每个参与者都将参与我们独特的人工智能系统的协作过程,”人工智能哲学家(AIP),”发表了几行宣言和相关著作,概括了他们对突出女权主义问题的观点,特别是当它涉及人类世时代和随后展开的时代时。
人工智能和人类输入的这种创新融合引领我们进入一个新的话语领域,挑战作者身份的传统参数,并利用人类与人工智能协作固有的独特潜力。通过这种探索性的努力,我们渴望审视后人类中心时代女权主义的动态潜力。
我们研讨会的高潮将体现在一本集体卷中,这是人工智能增强宣言和每位参与者的个人著作的纲要。我们集体旅程的具体证据将以数字和物理形式在受人尊敬的学术会议上出版和展示,EVA 伦敦 2023,及其相关的艺术展览。此次捐赠将成为对我们展望人类世之外的女权主义未来的远征的持久致敬。
研讨会的目标
学生将学习并实践两位法国政治理论家 Guy Debord 和 Gil J. Wolman 在本次研讨会上发明的绕行技巧。其目的是挑战和超越有关物体、事件和其他事物的普遍接受的能指和所指的现有界限。从他们的开创性出版物中汲取灵感,绕道用户指南,学生将负责制作一个新的数据集AIP 并建立一套新的图像语义标签。这一努力的目的是改变和疏远我们对女权主义以及人类和后人类状况的传统理解。
合作期间与AIP,学生的主要关注点应该放在内容的逻辑构造上,而不是编程实现的技术方面。需要考虑的基本方面包括目标语料库片段的选择、这些片段之间的相互关系以及目标图像及其相应语义标签的选择和排列。这个过程的一个关键方面涉及理解所选能指和所指之间的含义和联系。值得注意的是,学生还需要独立撰写各自的宣言;虽然灵感可能来自 GPT4 或相关的大型语言模型,但不允许将人工智能生成的内容集成到其书面章节中。同样的原则也适用于人类智能的能指和所指的图像语义标签。
为了本次研讨会的目的,学生将被分配到四个小组之一,每个小组的任务是探索一个不同的主题。这些团体的集体努力将汇编成一本综合性的书。鼓励缺乏合适电子设备(例如个人电脑、笔记本电脑或平板电脑)的学生将其格式化内容发送至探索@ivas.studio。提交内容可以采用以下形式:*.txt 文件(用于人工智能-人类写作部分)、纯文本或共享谷歌文档 或者微软Word文件 (超链接)在电子邮件正文中。相同的条件适用于提交人类智能的能指和所指的图像语义标签。请参阅下面详细说明以获取更多指导。
研讨会成果:书籍结构和展览
本次研讨会的最终成果将分为两个重要部分:“人类世的女权主义宣言“ 和 ”后人类世的女权主义宣言这本书的结构独特,可以从两个不同的方向进行阅读。前半部分通常从右向左打开,书脊向左,只包含人类智力创造和编排的内容。相反,后部打破常规,脊柱向右,从左向右打开,展示人类思维与人工智能协作产生的内容。
对于学生来说,最重要的是只专注于内容的制作,视觉和印刷元素是其职责范围。互联网增值服务 艺术家。这一集体努力的最终体现将是一本有形的书籍及其数字版本。这种双格式出版物确保了可访问性和长久性,体现了人类与人工智能之间的相互作用,以追求人类世之外的女权主义未来。
操作指南
本次研讨会的成功完成需要仔细遵守以下一组说明和操作任务。
文字内容
- 人类智力生产:
每个学生将首先在人类世或后人类世的背景下就其指定的女权主义问题进行个人研究和思想收集。此后,他们将独立起草一份 5 到 7 行的宣言,概括他们对此事的想法、观点和论点。
- 人机协作:
在这个阶段,学生将与我们的人工智能系统合作,AIP,设计一个新的数据集,结合目标语料库片段的选择及其相互关系。在这里,重点应该放在创建宣言内容时人类智慧和人工智能的有意义的结合,同时确保人工智能生成的内容不会整合到人类编写的章节中。
指导
- 内容材料的选择
学生可以从研讨会推荐的阅读清单中选择上下文阅读,或者在其他出版物(如论文、文章、书籍、诗歌作品等)中寻找理想的内容。
- 预训练数据集准备
学生需要将这些文本材料合并到一个 *.txt 文件中。每篇选定的文本材料应以5至7句为标准单位,采用段落形式,并采用<|文本结束|> 作为分隔符来划分不同的选定材料。对预训练数据集的大小没有严格要求。学生可以根据自己对最终生成文本的期望做出决定。值得注意的是,数据集越大,AI 生成文本的性能就越好、越精确。
- 数据集训练
鼓励学生将格式化内容发送至@ivas.studio。提交内容可以采用以下形式:*.txt 文件(用于人工智能人类写作部分)、纯文本或电子邮件正文中的共享 Google Doc 或 Microsoft Word 文件(超链接)。有兴趣尝试人工智能训练过程的学生还可以与谷歌合作实验室 IVAS为他们准备的文件。只需简单的操作即可完成此过程;学生只需点击准备好的“RUN”按钮或“RUN ALL”按钮即可谷歌合作实验室 文件来执行此任务。然而,学生应该更关注内容的逻辑而不是编程技术。
学生应将预先训练的数据集发送至@ivas.studio 到7月6日结束。
- 获取 AI 生成的内容
AI 训练完成后,可以通过以下几种方式与 AI 生成的内容进行交互并获取 AI 生成的内容: 将问题列表或触发句子发送至@ivas.studio;发送请求至@ivas.studio 获取人工智能随机生成的内容;访问准备好的谷歌合作实验室 文件通过浏览器与AIP实时交互。
学生可以获得多个人工智能生成的内容,并选择他们想要包含在书中的内容。
图像上下文
- 人类智力生产:
对于能指和所指的图像语义标签,学生需要选择和组织与目标主题及其各自宣言相一致的相关图像。他们还将创建相关的语义标签以形成连贯的图像上下文,从而帮助创建与其书面宣言相对应的引人入胜且绕行的视觉叙事。
学生将在共享的内容上运用拼贴的艺术方法米罗板或物理纸张来创建图像之间的能指和所指的图像语义标签集。没有PC、笔记本电脑、平板电脑等合适电子设备的学生,可以利用现成的材料在纸上绘制外延和内涵图,拍照后发送至explore@ivas.studio。
- 人机协作:
通过与人工智能系统的合作,学生将开始重新定义和解释他们选择的图像的语义标签。目标是绕行和疏远我们对图像及其含义的传统理解,使这一过程与前面提到的绕行技术保持一致。这种人类与人工智能的合作将最终对图像背景进行前卫的重新诠释,从而补充和丰富书面内容。
到本周末,该操作的进一步介绍将完成。
流程
1小时 20分钟Art-Fem-Sci Practice
Zoom
1小时 20分钟Art-Fem-Sci Practice
Zoom
門票
车间通行证
通过 IVAS Access Pass 解锁丰富的知识和机会。独享精选阅读材料、互动研讨会、享有盛誉的展览机会和出版权,全部一揽子服务。
CA$0.00銷售已完結
總計
CA$0.00