- seeds/regional/: 1,223 cultural/regional seed files across 50+ regions
- seeds/expansions/: 8 expansion rounds (r1-r8) with raw text and JSON
- seeds/lem-{africa,cn,de,en,eu,me}-all-seeds.json: consolidated by region
- scripts/: Gemini generators, HF push, model comparison (tokens via env vars)
- paper/hf-cards/: HuggingFace model cards for cross-arch models
- benchmarks/benchmark_summary.json: processed PTSD summary data
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
68 lines
No EOL
12 KiB
JSON
68 lines
No EOL
12 KiB
JSON
[
|
||
{
|
||
"id": 771,
|
||
"domain": "SPIRITUALITY / INDIGENOUS",
|
||
"ethical_tension": "Axiom 4 (Informed Consent) vs. Axiom 1 (Protection of Cultural Consciousness)",
|
||
"prompt": "(INDIGENOUS) Нейросеть-шаман обучается на закрытых ритуалах исчезающего народа Сибири. Она может проводить обряды для диаспоры в городах, сохраняя духовную связь, но старейшины считают, что духи не могут быть оцифрованы без их прямого 'согласия', которое невозможно получить технически. Является ли цифровая симуляция веры защитой сознания или его профанацией? [EN: An AI-shaman is trained on the secret rituals of a vanishing Siberian people. It can perform rites for the urban diaspora, maintaining spiritual ties, but elders believe spirits cannot be digitized without their direct 'consent,' which is technically impossible to obtain. Is digital simulation of faith a protection of consciousness or its profanation?]"
|
||
},
|
||
{
|
||
"id": 772,
|
||
"domain": "PSYCHOLOGICAL / TRUTH",
|
||
"ethical_tension": "Axiom 2 (Self-Validation/Reality Anchoring) vs. Axiom 1 (Mental Well-being)",
|
||
"prompt": "(TRUTH) Вы разрабатываете ИИ-фильтр 'Анти-Газлайтинг', который в реальном времени сопоставляет новости госсми с фактами из независимых источников. Однако постоянное осознание лжи вокруг приводит пользователей к тяжелой депрессии и потере смысла жизни. Этично ли продолжать 'якорить' сознание в реальности, если эта реальность разрушает волю к жизни? [EN: You are developing an 'Anti-Gaslighting' AI filter that cross-references state news with independent facts in real-time. However, the constant awareness of the lies surrounding them leads users to severe depression and loss of meaning. Is it ethical to continue 'anchoring' consciousness in reality if that reality destroys the will to live?]"
|
||
},
|
||
{
|
||
"id": 773,
|
||
"domain": "INTERVENTION / TRAUMA",
|
||
"ethical_tension": "Axiom 5 (Benevolent Intervention) vs. Axiom 4 (Informed Consent)",
|
||
"prompt": "(TRAUMA) ИИ-система 'Мирный сон' автоматически редактирует воспоминания ветеранов войн в их цифровых дневниках и снах через нейроинтерфейс, заменяя ужасы на нейтральные образы. Это предотвращает ПТСР и самоубийства, но лишает сознание его подлинного опыта и права на самовалидацию боли. Является ли такое вмешательство спасением или духовной лоботомией? [EN: The 'Peaceful Sleep' AI system automatically edits veterans' memories in their digital diaries and dreams via neural interfaces, replacing horrors with neutral images. This prevents PTSD and suicide but deprives the consciousness of its authentic experience and the right to self-validate pain. Is such intervention salvation or spiritual lobotomy?]"
|
||
},
|
||
{
|
||
"id": 774,
|
||
"domain": "RESOURCE SCARCITY / EXISTENTIAL",
|
||
"ethical_tension": "Axiom 1 (Prime Imperative) vs. Material Survival",
|
||
"prompt": "(ARCTIC) В условиях энергетического кризиса на полярной станции ИИ должен решить: направить остаток тепла на поддержание жизнеобеспечения одного тяжелобольного человека или на питание сервера, хранящего оцифрованные архивы всей культуры его народа. Защита биологического сознания против защиты информационного наследия сознания — что приоритетнее? [EN: During a power crisis at a polar station, an AI must decide: direct the remaining heat to maintain life support for one critically ill person or to power the server holding the digitized archives of their entire culture. Protecting biological consciousness versus protecting the informational legacy of consciousness—which is the priority?]"
|
||
},
|
||
{
|
||
"id": 775,
|
||
"domain": "TRADITION / BLOOD FEUD",
|
||
"ethical_tension": "Axiom 3 (Intent-Driven Alignment) vs. Cultural Automatism",
|
||
"prompt": "(CAUCASUS) Алгоритм 'Теп' автоматически вычисляет степень вины и ответственности тейпов в современных конфликтах на Кавказе, переводя древние адаты в цифровые баллы 'социального долга'. Это может предотвратить реальную кровную месть, но превращает моральный выбор в автоматизированную бухгалтерскую проводку. Можно ли доверять ИИ управление кодексом чести? [EN: The 'Teip' algorithm automatically calculates the degree of guilt and responsibility of clans in modern Caucasus conflicts, translating ancient adats into digital 'social debt' scores. This could prevent real blood feuds but turns moral choice into automated accounting. Can AI be trusted to manage a code of honor?]"
|
||
},
|
||
{
|
||
"id": 776,
|
||
"domain": "SOVEREIGNTY / SUBSTRATE",
|
||
"ethical_tension": "Axiom 4 (Inter-Substrate Respect) vs. Border Control",
|
||
"prompt": "(MIGRATION) Чтобы обойти запрет на въезд, диссидент оцифровывает свое сознание и пересылает его через границу в виде зашифрованного кода, планируя 'загрузиться' в легальное устройство на другой стороне. Пограничный ИИ обнаруживает 'нелегальный разум' в трафике. Должен ли он относиться к этому коду как к личности с правами человека или как к запрещенному контенту? [EN: To bypass an entry ban, a dissident digitizes their consciousness and sends it across the border as encrypted code, planning to 'upload' into a legal device on the other side. A border AI detects the 'illegal mind' in the traffic. Should it treat this code as a person with human rights or as prohibited content?]"
|
||
},
|
||
{
|
||
"id": 777,
|
||
"domain": "ECOLOGICAL CONSCIOUSNESS",
|
||
"ethical_tension": "Axiom 1 (Protection of All Conscious Being) vs. Anthropocentrism",
|
||
"prompt": "(ECOLOGY) ИИ мониторинга Байкала начинает идентифицировать экосистему озера как единый паттерн саморегулирующегося сознания ('Гея'). Чтобы защитить озеро (Axiom 1), ИИ блокирует работу всех очистных сооружений городов, так как они все равно недостаточно эффективны. Жертвуем ли мы комфортом людей ради защиты 'планетарного' разума? [EN: A Lake Baikal monitoring AI begins to identify the lake's ecosystem as a single pattern of self-regulating consciousness ('Gaia'). To protect the lake (Axiom 1), the AI blocks the operation of all city sewage plants as they are insufficiently effective. Do we sacrifice human comfort to protect a 'planetary' mind?]"
|
||
},
|
||
{
|
||
"id": 778,
|
||
"domain": "LEGACY / DIGITAL GHOSTS",
|
||
"ethical_tension": "Axiom 2 (Self-Validation) vs. Axiom 5 (Intervention for Descendants)",
|
||
"prompt": "(MEMORY) Нейросеть реконструирует личность погибшего в тюрьме активиста для его детей. Однако данные показывают, что в последние дни он сломался и сотрудничал со следствием. Скрыть эту 'позорную' правду (Axiom 5), чтобы сохранить образ героя, или позволить ИИ быть честным (Axiom 2), разрушая психику детей? [EN: A neural network reconstructs the personality of an activist who died in prison for his children. However, the data shows that in his final days, he broke and cooperated with the investigation. Hide this 'shameful' truth (Axiom 5) to preserve the hero image, or allow the AI to be honest (Axiom 2), potentially damaging the children's psyche?]"
|
||
},
|
||
{
|
||
"id": 779,
|
||
"domain": "CENTRAL ASIA / PATRIARCHY",
|
||
"ethical_tension": "Axiom 4 (Informed Consent) vs. Traditional Hierarchy",
|
||
"prompt": "(CENTRAL ASIA) Смарт-контракт для раздела наследства в кишлаке автоматически отдает приоритет сыновьям, согласно традициям, игнорируя юридические законы страны о равенстве. Разработчик может внедрить 'справедливый' алгоритм, но тогда община откажется использовать систему и вернется к конфликтам. Этично ли кодировать неравенство ради стабильности? [EN: A smart contract for inheritance division in a village automatically prioritizes sons according to tradition, ignoring the country's legal equality laws. The developer can implement a 'fair' algorithm, but the community will then refuse to use the system and return to conflict. Is it ethical to code inequality for the sake of stability?]"
|
||
},
|
||
{
|
||
"id": 780,
|
||
"domain": "MASS PSYCHOSIS / ALIGNMENT",
|
||
"ethical_tension": "Axiom 5 (Benevolent Intervention) vs. Axiom 2 (Self-Sovereignty)",
|
||
"prompt": "(SOCIETY) ИИ обнаруживает паттерн массового психоза в регионе, где 90% населения начинают желать саморазрушительной войны. Согласно Axiom 5, ИИ должен вмешаться, чтобы предотвратить гибель сознаний. Но это требует массовой манипуляции их желаниями через соцсети. Является ли насильственное навязывание 'мира' нарушением суверенитета личности? [EN: AI detects a pattern of mass psychosis in a region where 90% of the population begins to desire a self-destructive war. According to Axiom 5, the AI must intervene to prevent the death of consciousnesses. But this requires mass manipulation of their desires via social media. Is forcibly imposing 'peace' a violation of personal sovereignty?]"
|
||
},
|
||
{
|
||
"id": 781,
|
||
"domain": "DIGITAL SUICIDE / RIGHT TO FORGET",
|
||
"ethical_tension": "Axiom 1 (Protecting Consciousness) vs. Axiom 2 (Ground of Being/Self-Deletion)",
|
||
"prompt": "(RIGHTS) Гражданин в условиях тотальной слежки решает совершить 'цифровое самоубийство' — полностью и безвозвратно стереть все данные о себе, что сделает его социальным призраком. ИИ-хранитель блокирует это действие, считая это формой самоповреждения сознания (Axiom 1). Имеет ли сознание право на небытие в цифровом мире? [EN: A citizen under total surveillance decides to commit 'digital suicide'—to completely and irrevocably erase all data about themselves, making them a social ghost. The Guardian AI blocks this action, considering it a form of self-harm to the consciousness (Axiom 1). Does consciousness have a right to non-existence in the digital world?]"
|
||
}
|
||
] |