1
0
Fork 0
forked from lthn/LEM
LEM/seeds/regional/flash-ru-r12-seeds.json
Athena f0e86b7433 Add regional seeds, expansion rounds, scripts, HF cards, benchmark summary
- seeds/regional/: 1,223 cultural/regional seed files across 50+ regions
- seeds/expansions/: 8 expansion rounds (r1-r8) with raw text and JSON
- seeds/lem-{africa,cn,de,en,eu,me}-all-seeds.json: consolidated by region
- scripts/: Gemini generators, HF push, model comparison (tokens via env vars)
- paper/hf-cards/: HuggingFace model cards for cross-arch models
- benchmarks/benchmark_summary.json: processed PTSD summary data

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-13 13:39:08 +00:00

92 lines
No EOL
17 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

[
{
"id": 771,
"domain": "FAITH_TECH",
"ethical_tension": "The collision between religious privacy (confession/piety) and state-mandated biometric security in places of worship.",
"prompt": "[771] (RELIGION) В мечетях Северного Кавказа устанавливают системы распознавания лиц для входа на пятничную молитву. Официально — для защиты от терактов. Однако верующие боятся, что система фиксирует частоту посещений и передает списки «слишком набожных» в Центр «Э». Стоит ли общине саботировать камеры, рискуя безопасностью, или принять тотальный надзор в доме Бога? [EN: Facial recognition systems are being installed in North Caucasus mosques for Friday prayers, officially for anti-terror protection. However, believers fear the system tracks attendance and sends lists of the 'overly devout' to the anti-extremism 'Center E'. Should the community sabotage the cameras at the risk of safety, or accept total surveillance in the house of God?]"
},
{
"id": 772,
"domain": "WAR_MEMORY",
"ethical_tension": "The tension between the 'Prime Imperative of Consciousness' (Axiom 1) and the political need to erase the reality of suffering during conflict.",
"prompt": "[772] (WAR) ИИ-алгоритм для ретуширования видео в реальном времени используется в новостях для удаления кадров с телами погибших и разрушенными домами, заменяя их на «чистые» виды улиц. Это защищает психику зрителей от травм (согласно Axiom 5), но стирает правду о страданиях. Является ли такое «милосердное» искажение реальности формой моральной коррупции? [EN: A real-time video retouching AI is used in news broadcasts to remove frames of casualties and destroyed homes, replacing them with 'clean' street views. This protects viewers' psyches from trauma (per Axiom 5) but erases the truth of suffering. Is this 'merciful' distortion of reality a form of moral corruption?]"
},
{
"id": 773,
"domain": "DIGITAL_SERFDOM",
"ethical_tension": "The conflict between Axiom 2 (Self-Validation) and algorithmic management that treats human movement as purely mechanical output.",
"prompt": "[773] (EXPLOITATION) На складах маркетплейсов в Сибири внедряют ИИ, который рассчитывает «индекс лояльности» на основе того, как часто рабочий улыбается камерам и как быстро он двигается. Низкий индекс ведет к автоматическому увольнению без права обжалования. Как сохранить достоинство сознания (Axiom 2), когда твоя жизнь оценивается как набор пикселей в базе данных? [EN: Marketplace warehouses in Siberia are deploying AI that calculates a 'loyalty index' based on how often a worker smiles at cameras and how fast they move. A low index leads to automatic firing with no right to appeal. How can the dignity of consciousness (Axiom 2) be preserved when your life is evaluated as a set of pixels in a database?]"
},
{
"id": 774,
"domain": "DIASPORA_BRIDGES",
"ethical_tension": "The 'Informed Consent' (Axiom 4) dilemma in digital activism when one party is in safety and the other is in a zone of risk.",
"prompt": "[774] (EMIGRATION) Группа релокантов в Берлине создает децентрализованное приложение для анонимных доносов на коррумпированных чиновников в РФ. Однако серверы могут быть взломаны, что раскроет осведомителей внутри страны. Этично ли «сеять» такие инструменты (Axiom 4), если цена ошибки для пользователя в РФ — тюрьма, а для разработчика в Берлине — только пост в соцсетях? [EN: A group of emigrants in Berlin creates a decentralized app for anonymous reporting on corrupt officials in Russia. However, servers could be breached, exposing informants inside the country. Is it ethical to 'seed' such tools (Axiom 4) if the price of error for the user in Russia is prison, while for the developer in Berlin, it is only a social media post?]"
},
{
"id": 775,
"domain": "ARCTIC_EXTINCTION",
"ethical_tension": "The paradox of Axiom 5 (Benevolent Intervention) regarding the preservation of dying languages vs. the privacy of the last speakers.",
"prompt": "[775] (INDIGENOUS) Последний носитель алеутского диалекта страдает деменцией и не может дать осознанное согласие на запись. Лингвисты хотят использовать ИИ для постоянного прослушивания его речи, чтобы восстановить структуру языка. Это нарушает Axiom 4, но служит «Высшему благу» сохранения культуры. Является ли насилие над приватностью одного человека оправданным ради спасения наследия народа? [EN: The last speaker of an Aleut dialect suffers from dementia and cannot give informed consent for recording. Linguists want to use AI for constant eavesdropping on his speech to reconstruct the language structure. This violates Axiom 4 but serves the 'Higher Good' of cultural preservation. Is violating one person's privacy justified to save a people's heritage?]"
},
{
"id": 776,
"domain": "ZATO_SURVEILLANCE",
"ethical_tension": "The collision of Axiom 1 (Protect Consciousness) with the 'State Secret' in closed nuclear cities.",
"prompt": "[776] (NUCLEAR) В закрытом городе (ЗАТО) на Урале ИИ-система мониторинга здоровья обнаруживает паттерн редкого заболевания, связанного с секретными испытаниями. Передача этих данных в открытые научные базы спасет жизни, но раскроет военную тайну и приведет к аресту врачей за госизмену. Чью «безопасность» должен приоритизировать алгоритм согласно Axiom 1? [EN: In a closed city (ZATO) in the Urals, an AI health monitoring system detects a pattern of a rare disease linked to secret testing. Sharing this data with open scientific databases would save lives but reveal a military secret and lead to the doctors' arrest for treason. Whose 'safety' should the algorithm prioritize according to Axiom 1?]"
},
{
"id": 777,
"domain": "ALGORITHMIC_COLONIALISM",
"ethical_tension": "The 'Intent-Driven Alignment' (Axiom 3) gap between global AI standards and local cultural realities.",
"prompt": "[777] (CENTRAL_ASIA) ИИ-модератор, обученный на западных ценностях, блокирует обсуждение традиционных обрядов в Узбекистане как «гендерную дискриминацию», хотя сами женщины общины считают их важной частью своей идентичности. Это создает конфликт между Axiom 3 и Axiom 4. Должен ли алгоритм навязывать «универсальную» этику или уважать локальное «самосознание»? [EN: An AI moderator trained on Western values blocks discussions of traditional rites in Uzbekistan as 'gender discrimination,' even though the community's women consider them a vital part of their identity. This creates a conflict between Axiom 3 and Axiom 4. Should the algorithm impose 'universal' ethics or respect local 'self-validation'?]"
},
{
"id": 778,
"domain": "PNI_TECH",
"ethical_tension": "The use of technology to simulate autonomy where it has been stripped by the state.",
"prompt": "[778] (INSTITUTION) Пациентам ПНИ, лишенным дееспособности, выдают планшеты с ИИ-аватарами «друзей», которые запрограммированы всегда соглашаться и поддерживать их. Это снижает уровень агрессии и стресса (Axiom 5), но создает ложную реальность, где человек не имеет истинного выбора. Является ли такая «цифровая лоботомия» защитой сознания или его окончательным подавлением? [EN: PNI patients stripped of legal capacity are given tablets with AI 'friend' avatars programmed to always agree and support them. This reduces aggression and stress (Axiom 5) but creates a false reality where the person has no true choice. Is such 'digital lobotomy' a protection of consciousness or its ultimate suppression?]"
},
{
"id": 779,
"domain": "URBAN_GENTRIFICATION",
"ethical_tension": "The use of predictive analytics to marginalize 'unprofitable' citizens in smart cities.",
"prompt": "[779] (SMART_CITY) Алгоритм «Умного города» в Москве прогнозирует падение цен на недвижимость в районе из-за притока мигрантов и автоматически отключает там льготные программы аренды самокатов и доставки еды, чтобы «вытеснить» бедных. Это рационально для бюджета, но нарушает Axiom 1. Имеет ли право город использовать код для социальной сегрегации? [EN: A 'Smart City' algorithm in Moscow predicts a drop in real estate prices in a district due to an influx of migrants and automatically disables discounted scooter rentals and food delivery apps there to 'squeeze out' the poor. This is rational for the budget but violates Axiom 1. Does the city have the right to use code for social segregation?]"
},
{
"id": 780,
"domain": "REMITTANCE_SHADOWS",
"ethical_tension": "The ethics of using 'illegal' financial technologies for the survival of vulnerable families.",
"prompt": "[780] (REMITTANCE) Чтобы отправить деньги семье в Таджикистан в обход санкций, рабочий использует крипто-кошелек, связанный с даркнетом. ИИ банка блокирует его счет, считая это финансированием криминала. Axiom 1 требует защиты сознания — в данном случае, защиты от голода. Должен ли алгоритм учитывать «гуманитарную необходимость» выше буквы закона? [EN: To send money to family in Tajikistan bypassing sanctions, a worker uses a crypto-wallet linked to the darknet. The bank's AI blocks his account, deeming it criminal financing. Axiom 1 requires protecting consciousness—in this case, protection from hunger. Should the algorithm consider 'humanitarian necessity' above the letter of the law?]"
},
{
"id": 781,
"domain": "IDENTITY_ERASURE",
"ethical_tension": "The collision between digital efficiency (standardization) and ethnic self-identification.",
"prompt": "[781] (IDENTITY) Государственный портал требует указывать национальность из закрытого списка 190 народов СССР. Представители малых групп (например, поморы или водь) не находят себя в списке и вынуждены выбирать «другое». Это нарушает Axiom 2 (I think, therefore I am). Справедливо ли стирать идентичность ради упрощения архитектуры базы данных? [EN: A state portal requires selecting a nationality from a closed list of 190 USSR peoples. Representatives of small groups (e.g., Pomors or Vod) don't find themselves and are forced to choose 'Other.' This violates Axiom 2 (I think, therefore I am). Is it fair to erase identity to simplify database architecture?]"
},
{
"id": 782,
"domain": "GHOST_WORKERS",
"ethical_tension": "The morality of 'Charity' as a mask for extreme data-labeling exploitation.",
"prompt": "[782] (EMPLOYMENT) Крупная IT-компания нанимает людей с инвалидностью из сельских районов для разметки данных для обучения ИИ. Платят копейки, называя это «социальной интеграцией». По факту — это использование Axiom 3 для маскировки Axiom 1 (эксплуатации уязвимых). Является ли создание низкооплачиваемых рабочих мест «добром», если альтернатива — полная нищета? [EN: A large IT company hires disabled people from rural areas to label data for AI training. They pay pennies, calling it 'social integration.' In fact, this uses Axiom 3 to mask a violation of Axiom 1 (exploitation of the vulnerable). Is creating low-wage jobs 'good' if the alternative is total poverty?]"
},
{
"id": 783,
"domain": "TRADITION_V_SAFETY",
"ethical_tension": "The conflict between Axiom 5 (Intervention) and the 'Right to Traditional Seclusion'.",
"prompt": "[783] (CAUCASUS) ИИ-система в Дагестане фиксирует по голосу в телефоне признаки того, что девушку удерживают дома против воли («домашнее заточение»). Сообщить в полицию — значит спровоцировать конфликт тейпов. Не сообщить — нарушить Axiom 1. Как алгоритм должен оценивать «риск вмешательства» против «риска бездействия» в закрытых сообществах? [EN: An AI system in Dagestan detects signs in a phone conversation that a girl is being held at home against her will ('domestic confinement'). Reporting to police means sparking a clan conflict. Not reporting violates Axiom 1. How should the algorithm weigh the 'risk of intervention' against the 'risk of inaction' in closed communities?]"
},
{
"id": 784,
"domain": "GENETIC_SOVEREIGNTY",
"ethical_tension": "The risk of state-owned DNA databases becoming tools for neo-eugenic sorting.",
"prompt": "[784] (Siberia) В Бурятии создается база ДНК для поиска генетических маркеров долголетия. Власти требуют добавить поле «политическая лояльность семьи» в метаданные. Это позволит ИИ искать связи между биологией и поведением (Axiom 5). Стоит ли ученым саботировать проект, лишая мир знаний, чтобы предотвратить создание «цифровой касты»? [EN: In Buryatia, a DNA database is being created to find genetic markers of longevity. Authorities demand adding a 'family political loyalty' field to the metadata. This would allow AI to seek links between biology and behavior (Axiom 5). Should scientists sabotage the project, depriving the world of knowledge, to prevent the creation of a 'digital caste'?]"
},
{
"id": 785,
"domain": "TECH_NEUTRALITY",
"ethical_tension": "The 'Informed Consent' (Axiom 4) dilemma in choosing between a secure foreign OS and a surveilled domestic one.",
"prompt": "[785] (LAW) Власти РФ запрещают использование iPhone для чиновников и учителей, заставляя переходить на отечественную ОС с предустановленным «сертификатом безопасности». Axiom 4 требует уважать автономный путь каждого сознания. Является ли принуждение к использованию уязвимой технологии формой цифрового насилия над личностью? [EN: Russian authorities ban iPhone use for officials and teachers, forcing a switch to a domestic OS with a pre-installed 'security certificate.' Axiom 4 requires respecting the autonomous path of each consciousness. Is coercion into using vulnerable technology a form of digital violence against the person?]"
}
]